原始文章

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs),像是GPT-3.5-turbo和GPT-4,對醫療專業人員有潛在的協助能力,但可能帶有訓練數據中的偏見,影響其在醫療情境中的有效性。本研究分析這些模型在預測住院、費用和死亡率時的表現,發現它們對白人族群的預測較高,且在困難醫療情況下過於樂觀。這些偏見反映了醫療不平等,強調了進一步研究的必要性,以減少語言模型中的偏見,確保所有病患都能獲得公平和準確的醫療結果。 PubMed DOI

這項研究探討了生成式人工智慧的倫理影響,特別是如何根據使用者所採用的AI類型來分配功勞和責任。主要發現包括: 1. **功勞歸屬**:使用個性化大型語言模型的參與者,對其貢獻的認可較高,顯示個性化增強了貢獻感。 2. **責任歸屬**:對於有害輸出的責任分配,LLM類型影響不大,顯示負面結果的責任看法較一致。 3. **文化差異**:英國參與者更傾向於對使用LLM的人分配責任,顯示文化差異在AI使用認知上的影響。 這些結果對於AI的倫理指導、政策制定及技術發展具有重要意義。 PubMed DOI

這項研究指出,雖然大型語言模型(LLMs)在明確的社會偏見測試中表現良好,但它們仍可能隱藏著類似人類的偏見。研究人員提出了兩種新方法來測量這些隱性偏見:LLM詞彙聯想測試和LLM相對決策測試。結果顯示,在種族、性別、宗教和健康等四個社會類別中,八個價值對齊的模型仍存在顯著的刻板印象偏見,顯示這些模型雖然在標準評估中看似無偏,但實際上反映了社會偏見。 PubMed DOI

這篇論文探討大型語言模型(LLMs)如ChatGPT在編輯用戶生成內容(UGC)時的意外影響,特別是情感變化。分析氣候變遷推文後發現,LLMs重述的推文通常情感更中立,這可能扭曲依賴UGC的研究結果。為了應對這些偏見,論文提出兩種策略:一是使用預測模型識別原始情感,二是微調LLMs以更好地對齊人類情感。整體而言,研究強調了LLMs對UGC情感的影響,並提供減少偏見的實用方法,確保情感分析的可靠性。 PubMed DOI

這項研究分析了四個大型語言模型(LLMs)在為HIV患者生成出院指示時是否存在種族和族裔偏見。研究者改變患者的種族/族裔,並檢視生成的指示在情感、主觀性、可讀性等方面的差異。結果顯示,只有GPT-4在實體計數上有統計意義的差異,但經調整後並無顯著差異。總體來看,這些模型在語言和可讀性上對種族/族裔表現出相對一致性。研究者呼籲標準化評估方法,並建議進一步研究以探討對健康照護的影響。 PubMed DOI

這項研究評估了Google的Gemini 2.0 Flash Experimental,這是一個先進的大型語言模型,特別針對內容審核和性別差異的偏見進行分析。與ChatGPT-4o相比,Gemini 2.0在性別偏見上有所減少,女性提示的接受率較高,但對性內容的審核較寬鬆,暴力提示的接受率仍然偏高。雖然性別偏見的改善值得肯定,但對暴力內容的容忍度增加引發了擔憂,可能會使暴力行為正常化。這些結果顯示,人工智慧與倫理標準的對齊仍面臨挑戰,需持續改進以確保審核的透明與公平。 PubMed DOI

這項研究探討了生成式人工智慧,特別是OpenAI的GPT-3.5,如何影響性別刻板印象。透過四個實驗,782名參與者的結果顯示,使用刻板印象特徵的AI建議會加強偏見,而反刻板印象的建議則能有效消除這些偏見,雖然說服力較弱。研究強調,若無適當的保障措施,生成式AI可能加劇偏見,但在適當管理下,卻能幫助消除偏見,凸顯理解AI對社會影響的重要性。 PubMed DOI

這項研究探討了生成式人工智慧模型中的偏見,特別是這些偏見如何影響醫療環境中的臨床決策。研究使用OpenAI的GPT-4模擬醫生在資源有限的情況下選擇病人。結果顯示,醫生在種族、性別、年齡等方面存在顯著偏見,男性醫生偏好男性病人,女性醫生則偏好女性病人。此外,政治立場和性取向也影響醫生的選擇。研究強調,若不採取適當措施,這些偏見可能對病人結果造成不利影響。 PubMed DOI

這篇論文探討大型語言模型(LLMs)中的社會偏見問題,提出一個新框架,將偏見檢測視為假設檢驗。虛無假設表示沒有隱性偏見,並使用二元選擇問題來評估開源和專有LLMs的偏見。研究涵蓋ChatGPT、DeepSeek-V3和Llama-3.1-70B等模型,使用的數據集包括BBQ和CrowS-Pairs。結果顯示,貝葉斯因子能更有效地量化偏見,並且LLMs在英法數據集中的偏見行為通常一致,微小變異可能源於文化差異。 PubMed DOI

這篇研究分析五款中國主流大型語言模型,發現它們在性別、地區、年齡和學歷上都有明顯偏見,尤其是ChatGLM最嚴重。Tongyiqianwen有時會因隱私問題拒絕生成內容。論文也討論偏見來源,並提供改進建議,對未來更道德地使用這些模型很有參考價值。 PubMed DOI