這項研究探討大型語言模型(LLMs)在推薦系統中作為「公平性識別者」的角色,重點在於它們識別和促進公平推薦的能力。研究人員分析了MovieLens和LastFM數據集,並比較了有無公平性策略的變分自編碼器(VAE)生成的推薦。他們發現LLMs能有效識別不公平的推薦,並提出用公平VAE生成的替代品來改善推薦的公平性。結果顯示,這種方法顯著提升了性別基礎群體的公平性與效用比率,實現了公平性與效用的更好平衡。 PubMed DOI ♡
大型語言模型(LLMs)在醫療保健領域的應用日益增加,以提升病患護理品質,但也引發了像是偏見等倫理關切。這次評估專注於探討醫學領域中LLMs的倫理問題,特別是在同理心與公平性方面,並提出了應對這些問題的框架,以確保LLMs的應用符合倫理標準。 PubMed DOI
LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI
LLMs或許能改善醫療服務,但對健康公平的影響尚不明朗。本文探討了LLMs在國家少數民族健康與健康差距研究中的應用,以促進健康公平。討論了LLMs如何提升健康公平,也提到了新興問題,如偏見數據和隱私問題。建議在LLMs的開發和應用中應優先考慮健康公平。 PubMed DOI
LLMs在醫療保健領域被廣泛應用,但可能存在濫用風險,如不公平資源分配或侵犯公民權利。報告探討了這些風險並提出因應策略。 PubMed DOI
大型語言模型(LLMs)在提升醫療服務上潛力巨大,但也帶來不少風險。主要擔憂在於這些模型可能根據不公正的標準來分配資源,涉及金融交易、線上行為、社交互動和醫療記錄等多種數據。研究指出,LLMs 可能顯示偏見,優先考量集體利益,卻犧牲個人權益,這可能為基於人工智慧的社會信用系統鋪路,進而引發醫療及其他領域的倫理與隱私問題。 PubMed DOI
這項研究探討大型語言模型(LLMs)中的社會身份偏見,發現這些人工智慧系統展現出與人類相似的偏見,例如對內群體的偏好和對外群體的敵意。研究人員透過句子完成的提示,發現大多數LLMs在控制實驗和真實對話中都顯示出這些偏見。不過,仔細篩選訓練數據和專門微調可以顯著減少這些偏見,強調在人工智慧開發中解決社會偏見的重要性,以創造更公平的系統,並理解人類與LLMs的互動影響。 PubMed DOI
這篇論文指出大型語言模型(LLMs)在醫療、金融和交通等領域的重要性,同時也提到訓練數據和社會影響所帶來的偏見挑戰。研究強調需要針對偏見檢測和減輕的研究,特別是在像紐西蘭這樣的弱勢地區。它評估了紐西蘭現有的偏見指標和去偏見技術,找出研究空白,並討論了當前的努力,還提出了未來針對紐西蘭獨特文化和社會環境的研究機會。 PubMed DOI
這篇論文探討大型語言模型(LLMs),像是LLaMA和ChatGPT,如何增強推薦系統的可解釋性。文中強調清晰解釋對建立用戶信任和透明度的重要性。作者進行了系統性文獻回顧,聚焦於2022年11月至2024年11月的研究,發現232篇文章中僅有六篇直接探討LLMs在推薦系統中生成解釋的研究,顯示整合仍在初期階段。論文分析這些研究,探討當前方法、挑戰及未來研究方向,強調LLMs在改善推薦解釋和以用戶為中心的解決方案上的潛力。 PubMed DOI
這項研究指出,雖然大型語言模型(LLMs)在明確的社會偏見測試中表現良好,但它們仍可能隱藏著類似人類的偏見。研究人員提出了兩種新方法來測量這些隱性偏見:LLM詞彙聯想測試和LLM相對決策測試。結果顯示,在種族、性別、宗教和健康等四個社會類別中,八個價值對齊的模型仍存在顯著的刻板印象偏見,顯示這些模型雖然在標準評估中看似無偏,但實際上反映了社會偏見。 PubMed DOI
研究顯示,基於人工智慧的決策,特別是大型語言模型(LLMs),在評估求職者時存在顯著偏見。約361,000份履歷被評估後發現,女性候選人通常獲得較高評分,而黑人男性則常被低估,儘管他們的資格相似。這導致聘用機率出現1-3個百分點的差異,且在不同職位和群體中一致。這突顯了進一步調查偏見成因及發展減輕策略的必要性,以促進社會公平。 PubMed DOI