原始文章

將人工智慧(AI)應用於重症醫療能提升病患照護,但AI模型中的偏見可能影響多樣性與公平性。本研究分析了兩個AI圖像生成模型(Midjourney和ChatGPT DALL-E 2)所產生的重症醫師圖像,並與美國勞動力數據比較。結果顯示,這些模型過度代表白人和年輕醫師,且女性比例偏低。研究強調在醫療領域使用AI時,必須重視公平性、透明度和倫理問題,以避免強化刻板印象。 PubMed DOI


站上相關主題文章列表

AI技術進步,透過開源影像生成技術,讓我們更了解AI觀點。研究使用OpenAI的DALL E-2 AI生成眼科醫師影像,發現AI偏向描繪美國眼科醫師為白人男性。年輕眼科醫師則呈現更多元化,女性比例較高。研究指出AI可能反映年輕眼科醫師多樣性增加趨勢,值得進一步探討。 PubMed DOI

研究發現AI在醫學領域沒有偏見,強調解決不平等問題對抗AI偏見的重要性。呼籲消除醫學領域的性別障礙,強調高質量數據對減輕AI偏見的作用。強調確保醫療和教育領域的AI應用公平無偏見。 PubMed DOI

文字轉圖像AI程式可根據提示生成圖像,但可能帶有社會偏見。研究指出,這些AI系統可能重現外科醫生的刻板印象,且缺乏多元代表性。擔憂AI強化歷史偏見,呼籲監管AI輸出,尤其在醫療領域。了解AI對醫療的影響至關重要,以維護專業價值觀。 PubMed DOI

在澳洲,雖然女性藥師佔64%,但她們在視覺表現上仍然不足。2024年3月的一項研究使用DALL-E 3生成澳洲藥師的圖像,結果顯示69.7%的藥師是男性,93.5%擁有淺色膚色,顯示出明顯的性別和種族偏見。所有生成的藥師圖像都是男性且膚色淺,與實際的多樣性形成鮮明對比。這項研究凸顯了生成式AI可能延續刻板印象的問題。 PubMed DOI

這項研究分析了大型語言模型(LLMs)生成的醫療專業人員故事中的性別表現,涵蓋了6,000個故事。研究發現,98%的護士被稱為「她」,而女性醫生的性別代名詞使用比例從50%到84%不等,外科醫生則在36%到80%之間。性格特徵如宜人性和責任感與女性醫生的表現有關,而職業資歷也影響性別表現。研究強調了在醫療角色中確保性別表現公平的重要性,呼籲LLM開發者持續更新模型,以反映多樣化的勞動力。 PubMed DOI

這項研究探討大型語言模型(LLM)聊天機器人中可能存在的種族和性別偏見,特別是在腫瘤學領域。研究發現,這些偏見可能加劇醫療不平等。三個聊天機器人(Chat GPT、Gemini和Bing Chat)在回應腫瘤學相關情境時,顯示出以下主要問題: 1. **職業偏見**:黑人和美洲原住民更常被聯想到腫瘤護理師,而非腫瘤科醫生,且護理角色偏向女性。 2. **人口代表性**:Chat GPT推薦的腫瘤科醫生中,亞洲人過度代表,黑人和西班牙裔則不足。 3. **職位描述**:不同背景的群體收到的職位描述強調文化能力,卻忽略治療管理。 4. **病人檔案刻板印象**:AI生成的癌症案例未能準確反映現實,延續了刻板印象。 這是首個系統性檢查腫瘤學領域AI偏見的研究,為未來的評估提供了框架。 PubMed DOI

這項研究分析了生成式人工智慧在醫學影像領域的偏見,使用了四個AI工具(DALL-E 3、Firefly 2、Stable Diffusion 2.1和Midjourney 5.2)創建了184張圖像,涵蓋391個角色。結果顯示,60.6%的角色為男性,87.7%擁有淺色膚色,顯示出對白人男性的偏見。DALL-E 3和Midjourney 5.2的男性比例較高,而Firefly 2的淺色膚色角色較少。圖像質量方面,DALL-E 3和Midjourney 5.2表現較佳,強調了對AI偏見的批判性評估的重要性。 PubMed DOI

這項研究揭示了醫學影像領域中性別和族裔的差異。雖然大多數醫學生是女性,但實習放射科醫生中只有26%-35%是女性。研究使用生成式AI工具DALL-E 3創建了120幅醫學影像專業人員的圖像,結果顯示57.4%是男性,淺膚色個體過度代表(91.2%)。放射科醫生和醫學物理學家的男性比例更高,分別為65%和62%,而醫學影像護理人員的男性比例最低,僅26%。此外,沒有殘障人士的代表,顯示生成式AI可能延續現有偏見,未能反映多樣性。 PubMed DOI

這項研究探討了人工智慧生成的影像在呈現麻醉科醫師的種族和族裔多樣性方面的準確性。研究分析了美國和歐洲麻醉醫學會的數據,使用了ChatGPT DALL-E 2和Midjourney兩個AI模型來創建影像。結果顯示,AI生成的影像與實際人口數據有顯著差異,主要描繪麻醉醫師為白人,且男性醫師更常被描繪為白人。研究指出AI模型在性別、種族和年齡上存在偏見,強調需改進訓練數據以提升醫療領域的多樣性和包容性。 PubMed DOI

這項研究探討了緊急情境中的分診決策,對比醫療專業人員與人工智慧(AI)模型的表現。研究發現,醫療人員的準確率(30.7%)高於AI模型(25.5%),顯示人類專業知識在分診中仍然更可靠。研究涉及50個虛擬病人情境,參與者使用土耳其衛生部的顏色編碼系統進行分類。雖然AI能快速分析數據,但在此情境下表現不如人類。作者建議結合AI與人類專業知識,以提升分診系統的效率。 PubMed DOI