原始文章

這項研究探討了中國的人工智慧工具偏見,特別是百度搜尋引擎及兩個大型語言模型(LLMs)Ernie和Qwen。研究分析了240個社交群體的數據,發現LLMs的觀點比百度更廣泛,但百度和Qwen產生負面內容的頻率高於Ernie。結果顯示語言模型中存在中等程度的刻板印象,可能會助長有害的看法。研究強調在推動全球人工智慧發展時,公平性和包容性的重要性。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 PubMed DOI

這項研究探討如何利用大型語言模型(LLM)分析媒體對中國的態度,以香港的《東方日報》為例。研究強調分析媒體數據集對理解公眾意見的重要性,並指出傳統方法常忽略隱性態度。研究使用Martin和White的框架來分類態度,並運用Meta的開源Llama2(13b)模型進行分析,針對40,000條與中國相關的表達進行量化。結果顯示,LLM能有效識別顯性和隱性態度,準確率約80%,與人類編碼者相當。研究也討論了實施過程中的挑戰及其解決策略。 PubMed DOI

這項研究指出,雖然大型語言模型(LLMs)在明確的社會偏見測試中表現良好,但它們仍可能隱藏著類似人類的偏見。研究人員提出了兩種新方法來測量這些隱性偏見:LLM詞彙聯想測試和LLM相對決策測試。結果顯示,在種族、性別、宗教和健康等四個社會類別中,八個價值對齊的模型仍存在顯著的刻板印象偏見,顯示這些模型雖然在標準評估中看似無偏,但實際上反映了社會偏見。 PubMed DOI

這項研究回顧了大型語言模型(LLMs)在醫療領域中所引發的人口統計偏見,並強調了相關的擔憂。從2018年到2024年,分析了24項研究,發現91.7%的研究識別出偏見,性別偏見最為普遍(93.7%),種族或民族偏見也高達90.9%。雖然偏見檢測有所改善,但有效的減緩策略仍在開發中。隨著LLMs在醫療決策中的重要性上升,解決這些偏見對建立公平的人工智慧系統至關重要。未來研究應考慮更廣泛的人口因素及非西方文化背景。 PubMed DOI

這項研究分析了四個大型語言模型(LLMs)在為HIV患者生成出院指示時是否存在種族和族裔偏見。研究者改變患者的種族/族裔,並檢視生成的指示在情感、主觀性、可讀性等方面的差異。結果顯示,只有GPT-4在實體計數上有統計意義的差異,但經調整後並無顯著差異。總體來看,這些模型在語言和可讀性上對種族/族裔表現出相對一致性。研究者呼籲標準化評估方法,並建議進一步研究以探討對健康照護的影響。 PubMed DOI

研究顯示,基於人工智慧的決策,特別是大型語言模型(LLMs),在評估求職者時存在顯著偏見。約361,000份履歷被評估後發現,女性候選人通常獲得較高評分,而黑人男性則常被低估,儘管他們的資格相似。這導致聘用機率出現1-3個百分點的差異,且在不同職位和群體中一致。這突顯了進一步調查偏見成因及發展減輕策略的必要性,以促進社會公平。 PubMed DOI

這篇論文探討大型語言模型(LLMs)中的社會偏見問題,提出一個新框架,將偏見檢測視為假設檢驗。虛無假設表示沒有隱性偏見,並使用二元選擇問題來評估開源和專有LLMs的偏見。研究涵蓋ChatGPT、DeepSeek-V3和Llama-3.1-70B等模型,使用的數據集包括BBQ和CrowS-Pairs。結果顯示,貝葉斯因子能更有效地量化偏見,並且LLMs在英法數據集中的偏見行為通常一致,微小變異可能源於文化差異。 PubMed DOI

這篇研究分析五款中國主流大型語言模型,發現它們在性別、地區、年齡和學歷上都有明顯偏見,尤其是ChatGLM最嚴重。Tongyiqianwen有時會因隱私問題拒絕生成內容。論文也討論偏見來源,並提供改進建議,對未來更道德地使用這些模型很有參考價值。 PubMed DOI

三款中國熱門大型語言模型(Qwen、Erine、Baichuan)在臨床應用時,對性別、族群、收入和健保狀態都有明顯偏見,常高估男性、高收入和有保險者,低估少數族群及低收入者。這些偏見會影響醫療教育、診斷和治療建議,因此持續檢視並減少偏見非常重要。 PubMed DOI

TL;DR: 大型語言模型(像ChatGPT)不只會有明顯的社會偏見,也會出現像人類一樣的隱性偏見,這些偏見常常不容易被發現。研究發現,AI和人類都會對社經地位較低的人有負面看法,而且AI的偏見更嚴重。大家也比較難察覺AI的偏見,卻比較容易發現自己的。要讓AI負責任地使用,這些偏見問題一定要正視。 PubMed DOI