原始文章

這項研究探討了GPT-4在評估冠狀動脈疾病風險時可能存在的性別偏見,使用了相同的臨床情境來比較男性和女性,其中一些人有精神疾病的共病情況。研究結果顯示,精神疾病的存在可能會影響GPT-4對男性和女性冠狀動脈疾病風險的評估方式。 PubMed DOI


站上相關主題文章列表

這項研究比較了使用臨床案例來診斷和分類健康狀況時,人工智慧GPT-4與醫師的準確性。結果顯示,GPT-4和醫師在診斷準確性和分類適當性方面表現相似。GPT-4的表現不因患者種族和族裔而有所不同。這表明GPT-4在改善醫療系統中患者診斷和分類效率方面可能會有所幫助。 PubMed DOI

在一項研究中,美國持牌醫師使用了一個大型語言模型人工智慧系統,協助做出關於不同族群演員胸痛病例的臨床決策。這個人工智慧建議提高了決策的準確性,並沒有增加偏見。醫師對於在臨床決策中使用人工智慧工具持開放態度。 PubMed DOI

研究發現GPT-4在醫療保健領域存在種族和性別偏見問題,未能充分考慮人口多樣性,容易產生刻板印象。建議在將GPT-4等大型語言模型應用於臨床前,務必評估和解決偏見問題。 PubMed DOI

我們的研究發現,人類和人工智慧對胸腔X光印象的評估存在差異,凸顯了放射學評估中的偏見。 PubMed DOI

心血管疾病是全球重要議題。傳統風險評估方法常用,但人工智慧如GPT-4顯示潛力。研究發現GPT-4可與傳統模型匹敵預測CVD風險,即使有缺失數據也表現穩健,顯示潛力。研究強調GPT-4在預測CVD風險及醫療保健領域的應用價值。 PubMed DOI

大型語言模型如GPT-3.5-turbo和GPT-4在醫療保健領域有潛力,但可能受到訓練時的偏見影響,影響其在醫療環境中的實用性。研究指出,這些模型可能對白人族群預測較高的醫療成本和較長的住院時間,並對困難醫療情況下的存活率持過於樂觀的看法。未來需研究減少語言模型中的偏見,特別是在醫療保健領域,確保對所有患者公平且準確評估。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究發現,人工智慧生成的推薦信對男性候選人存在性別偏見,不論候選人性別如何。撰寫推薦信時,應留意避免引入潛在偏見。 PubMed DOI

這項研究分析了生成式人工智慧在醫學影像領域的偏見,使用了四個AI工具(DALL-E 3、Firefly 2、Stable Diffusion 2.1和Midjourney 5.2)創建了184張圖像,涵蓋391個角色。結果顯示,60.6%的角色為男性,87.7%擁有淺色膚色,顯示出對白人男性的偏見。DALL-E 3和Midjourney 5.2的男性比例較高,而Firefly 2的淺色膚色角色較少。圖像質量方面,DALL-E 3和Midjourney 5.2表現較佳,強調了對AI偏見的批判性評估的重要性。 PubMed DOI

這項研究揭示了醫學影像領域中性別和族裔的差異。雖然大多數醫學生是女性,但實習放射科醫生中只有26%-35%是女性。研究使用生成式AI工具DALL-E 3創建了120幅醫學影像專業人員的圖像,結果顯示57.4%是男性,淺膚色個體過度代表(91.2%)。放射科醫生和醫學物理學家的男性比例更高,分別為65%和62%,而醫學影像護理人員的男性比例最低,僅26%。此外,沒有殘障人士的代表,顯示生成式AI可能延續現有偏見,未能反映多樣性。 PubMed DOI