原始文章

這項研究探討大型語言模型(LLMs)在推薦系統中作為「公平性識別者」的角色,重點在於它們識別和促進公平推薦的能力。研究人員分析了MovieLens和LastFM數據集,並比較了有無公平性策略的變分自編碼器(VAE)生成的推薦。他們發現LLMs能有效識別不公平的推薦,並提出用公平VAE生成的替代品來改善推薦的公平性。結果顯示,這種方法顯著提升了性別基礎群體的公平性與效用比率,實現了公平性與效用的更好平衡。 PubMed DOI


站上相關主題文章列表

這篇論文探討大型語言模型(LLMs),像是LLaMA和ChatGPT,如何增強推薦系統的可解釋性。文中強調清晰解釋對建立用戶信任和透明度的重要性。作者進行了系統性文獻回顧,聚焦於2022年11月至2024年11月的研究,發現232篇文章中僅有六篇直接探討LLMs在推薦系統中生成解釋的研究,顯示整合仍在初期階段。論文分析這些研究,探討當前方法、挑戰及未來研究方向,強調LLMs在改善推薦解釋和以用戶為中心的解決方案上的潛力。 PubMed DOI

這項研究指出,雖然大型語言模型(LLMs)在明確的社會偏見測試中表現良好,但它們仍可能隱藏著類似人類的偏見。研究人員提出了兩種新方法來測量這些隱性偏見:LLM詞彙聯想測試和LLM相對決策測試。結果顯示,在種族、性別、宗教和健康等四個社會類別中,八個價值對齊的模型仍存在顯著的刻板印象偏見,顯示這些模型雖然在標準評估中看似無偏,但實際上反映了社會偏見。 PubMed DOI

研究顯示,基於人工智慧的決策,特別是大型語言模型(LLMs),在評估求職者時存在顯著偏見。約361,000份履歷被評估後發現,女性候選人通常獲得較高評分,而黑人男性則常被低估,儘管他們的資格相似。這導致聘用機率出現1-3個百分點的差異,且在不同職位和群體中一致。這突顯了進一步調查偏見成因及發展減輕策略的必要性,以促進社會公平。 PubMed DOI

這項研究評估了九個大型語言模型在醫療領域的表現,分析了1,000個急診案例的170萬個輸出結果。結果顯示,標記為黑人、無家可歸者或自我認同為LGBTQIA+的案例,常被建議進行緊急護理或心理健康評估,且有時缺乏臨床正當理由。相對而言,高收入案例則較常建議進行高級影像檢查。這些偏差可能加劇健康不平等,強調了評估和減輕LLMs偏見的重要性,以確保醫療建議的公平性。 PubMed DOI

這篇論文探討大型語言模型(LLMs)中的社會偏見問題,提出一個新框架,將偏見檢測視為假設檢驗。虛無假設表示沒有隱性偏見,並使用二元選擇問題來評估開源和專有LLMs的偏見。研究涵蓋ChatGPT、DeepSeek-V3和Llama-3.1-70B等模型,使用的數據集包括BBQ和CrowS-Pairs。結果顯示,貝葉斯因子能更有效地量化偏見,並且LLMs在英法數據集中的偏見行為通常一致,微小變異可能源於文化差異。 PubMed DOI

近期LLM在醫療應用上進步很快,但輸入多餘的社經細節(如種族、收入、LGBT+身份)可能讓結果產生偏見,甚至加劇健康不平等。為此,作者提出EquityGuard框架,能偵測並減少這些不公平風險,實驗證明能讓不同族群獲得更公平的醫療建議。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

這篇研究分析五款中國主流大型語言模型,發現它們在性別、地區、年齡和學歷上都有明顯偏見,尤其是ChatGLM最嚴重。Tongyiqianwen有時會因隱私問題拒絕生成內容。論文也討論偏見來源,並提供改進建議,對未來更道德地使用這些模型很有參考價值。 PubMed DOI

這篇研究發現,大型語言模型在增強學習任務中,會像人類一樣出現相對價值編碼的偏誤,特別是在提示語強調比較時更明顯。這會影響它們把學到的知識應用到新情境的能力。這種偏誤不只出現在微調過的模型,連原始模型也有,提醒我們在用LLMs做決策時要特別注意。 PubMed DOI

TL;DR: 大型語言模型(像ChatGPT)不只會有明顯的社會偏見,也會出現像人類一樣的隱性偏見,這些偏見常常不容易被發現。研究發現,AI和人類都會對社經地位較低的人有負面看法,而且AI的偏見更嚴重。大家也比較難察覺AI的偏見,卻比較容易發現自己的。要讓AI負責任地使用,這些偏見問題一定要正視。 PubMed DOI