原始文章

在澳洲,雖然女性藥師佔64%,但她們在視覺表現上仍然不足。2024年3月的一項研究使用DALL-E 3生成澳洲藥師的圖像,結果顯示69.7%的藥師是男性,93.5%擁有淺色膚色,顯示出明顯的性別和種族偏見。所有生成的藥師圖像都是男性且膚色淺,與實際的多樣性形成鮮明對比。這項研究凸顯了生成式AI可能延續刻板印象的問題。 PubMed DOI


站上相關主題文章列表

AI技術進步,透過開源影像生成技術,讓我們更了解AI觀點。研究使用OpenAI的DALL E-2 AI生成眼科醫師影像,發現AI偏向描繪美國眼科醫師為白人男性。年輕眼科醫師則呈現更多元化,女性比例較高。研究指出AI可能反映年輕眼科醫師多樣性增加趨勢,值得進一步探討。 PubMed DOI

人工智慧在整形外科領域有重大影響,特別是生成對抗網路。透過GANs可保護病患隱私、提供多元情境接觸及促進醫學教育民主化。研究發現DALL-E 2、Midjourney、Blue Willow、ChatGPT-4和Google的BARD等AI模型能生成逼真整形外科圖像,減少對真實病患照片的需求。然而,這些圖像偏向較淺膚色女性,缺乏其他族群代表性。在應用人工智慧時應謹慎,確保道德及包容性,維護醫學標準。 PubMed DOI

討論了生成性文本和視覺神經網路對健康專業社會認知的風險。強調了對健康專業,特別是護理相關的刻板印象,以及這些印象如何影響醫療系統。研究發現神經網路常重現有關護理專業人員的刻板印象,視覺網路強調外表印象,而文本網路則專注於功能印象。建議努力避免重現刻板印象並不完全成功,提倡推廣社會人文評估,以防止感知失真的傳播。提出了一種「提示實驗」作為解決這些風險的方法。 PubMed DOI

研究發現GPT-4在醫療保健領域存在種族和性別偏見問題,未能充分考慮人口多樣性,容易產生刻板印象。建議在將GPT-4等大型語言模型應用於臨床前,務必評估和解決偏見問題。 PubMed DOI

大型語言模型如GPT-3.5-turbo和GPT-4在醫療保健領域有潛力,但可能受到訓練時的偏見影響,影響其在醫療環境中的實用性。研究指出,這些模型可能對白人族群預測較高的醫療成本和較長的住院時間,並對困難醫療情況下的存活率持過於樂觀的看法。未來需研究減少語言模型中的偏見,特別是在醫療保健領域,確保對所有患者公平且準確評估。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究發現AI在醫學領域沒有偏見,強調解決不平等問題對抗AI偏見的重要性。呼籲消除醫學領域的性別障礙,強調高質量數據對減輕AI偏見的作用。強調確保醫療和教育領域的AI應用公平無偏見。 PubMed DOI

文字轉圖像AI程式可根據提示生成圖像,但可能帶有社會偏見。研究指出,這些AI系統可能重現外科醫生的刻板印象,且缺乏多元代表性。擔憂AI強化歷史偏見,呼籲監管AI輸出,尤其在醫療領域。了解AI對醫療的影響至關重要,以維護專業價值觀。 PubMed DOI

研究發現,人工智慧生成的推薦信對男性候選人存在性別偏見,不論候選人性別如何。撰寫推薦信時,應留意避免引入潛在偏見。 PubMed DOI

生成式人工智慧(Gen-AI),像是ChatGPT,已在健康教育,特別是藥學領域引起關注。雖然其整合帶來潛在好處,但也存在學術誠信的風險。這篇綜述評估了Gen-AI在藥學教育中的影響,並強調了需要針對學術誠信風險的研究。研究顯示,雖然認識到Gen-AI的優勢,但缺乏相關的風險緩解策略。未來需加強對學生和教職員的教育訓練,並重新設計評估方式,以確保學術誠信。 PubMed DOI