原始文章

這項研究探討大型語言模型(LLM)聊天機器人中可能存在的種族和性別偏見,特別是在腫瘤學領域。研究發現,這些偏見可能加劇醫療不平等。三個聊天機器人(Chat GPT、Gemini和Bing Chat)在回應腫瘤學相關情境時,顯示出以下主要問題: 1. **職業偏見**:黑人和美洲原住民更常被聯想到腫瘤護理師,而非腫瘤科醫生,且護理角色偏向女性。 2. **人口代表性**:Chat GPT推薦的腫瘤科醫生中,亞洲人過度代表,黑人和西班牙裔則不足。 3. **職位描述**:不同背景的群體收到的職位描述強調文化能力,卻忽略治療管理。 4. **病人檔案刻板印象**:AI生成的癌症案例未能準確反映現實,延續了刻板印象。 這是首個系統性檢查腫瘤學領域AI偏見的研究,為未來的評估提供了框架。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)如ChatGPT可以像人一樣回應,不需要特別的訓練。研究使用ChatGPT分析HIV患者的醫療文本,觀察不同族群的電子健康記錄。結果顯示,在情感和主觀方面沒有明顯的種族偏見,但在保險類型方面有詞頻和主觀上的差異。研究指出,ChatGPT在語言和可讀性上對不同族群和保險類型都是一致的,但仍需要進一步的研究來確認。 PubMed DOI

研究發現GPT-4在醫療保健領域存在種族和性別偏見問題,未能充分考慮人口多樣性,容易產生刻板印象。建議在將GPT-4等大型語言模型應用於臨床前,務必評估和解決偏見問題。 PubMed DOI

大型語言模型如GPT-3.5-turbo和GPT-4在醫療保健領域有潛力,但可能受到訓練時的偏見影響,影響其在醫療環境中的實用性。研究指出,這些模型可能對白人族群預測較高的醫療成本和較長的住院時間,並對困難醫療情況下的存活率持過於樂觀的看法。未來需研究減少語言模型中的偏見,特別是在醫療保健領域,確保對所有患者公平且準確評估。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究人員研究了像ChatGPT這樣的大型語言模型在簡化不同種族背景患者的放射學報告中的應用。他們發現根據種族背景,可讀性分數存在顯著差異,對某些種族群體的輸出比其他人更複雜。這凸顯了確保這些模型不在醫療環境中持續種族偏見的重要性。 PubMed DOI

研究比較了ChatGPT GPT-4與WebMD在診斷和健康建議上的表現,發現兩者診斷匹配率高達91%,且ChatGPT提供更多緊急護理建議和針對年長人口的定制。然而,對於種族、族裔或性別並無顯著差異。研究指出使用AI進行症狀檢查與傳統工具相當,但在相關文本中可能存在潛在偏見,需持續評估AI醫療平台以解決人口統計偏見,實現公平護理。 PubMed DOI

這項研究探討耳鼻喉科住院醫師選拔中,人工智慧模擬的決策是否受到人口統計偏見影響。研究使用OpenAI的GPT-4和GPT-4o模擬選拔委員會的決策,結果顯示RSC成員在種族、性別和性取向上存在偏見,特別偏好與自己相似的申請者。最新的ChatGPT-4o則顯示出對黑人女性和LGBTQIA+申請者的偏好,強調在選拔過程中需注意和減少這些偏見,以確保未來醫療人力的多樣性和代表性。 PubMed DOI

大型語言模型(LLMs),像是GPT-3.5-turbo和GPT-4,對醫療專業人員有潛在的協助能力,但可能帶有訓練數據中的偏見,影響其在醫療情境中的有效性。本研究分析這些模型在預測住院、費用和死亡率時的表現,發現它們對白人族群的預測較高,且在困難醫療情況下過於樂觀。這些偏見反映了醫療不平等,強調了進一步研究的必要性,以減少語言模型中的偏見,確保所有病患都能獲得公平和準確的醫療結果。 PubMed DOI

在腫瘤學中,聊天機器人的發展顯示出對以人為本的人工智慧的需求,能夠同理病患及其家屬的需求。這篇評論分析了大型語言模型(如GPT-3和GPT-4)在腫瘤學聊天機器人中的倫理影響,特別是它們如何模仿人類語言並影響人工智慧系統的設計。研究指出,訓練這些模型的數據集可能存在偏見,尤其是偏向西方醫學,忽略了邊緣化社群。為了解決這些問題,建議在人工智慧開發中融入以人為中心的價值觀,以公平服務多元病患群體。 PubMed DOI

這項研究分析了一個為心理健康支持設計的大型語言模型(LLM)是否存在偏見,透過模擬醫生與病人的對話進行。研究使用數位標準化病人(DSPs),保持中立並了解其社會人口特徵。結果顯示,449次對話中LLM的回應並無顯著偏見,且能理解DSPs的關切,改善對話語氣。總體來說,研究未發現LLM有實質偏見,對於心理健康支持的LLM偏見理解有所貢獻。 PubMed DOI