原始文章

這項研究探討學術外科中的性別偏見,分析AI平台ChatGPT生成的推薦信,對比男性與女性申請升遷為副教授的候選人。研究人員創作了六封推薦信,結果顯示針對女性的信件平均較短(298字),而男性的則較長(314字)。此外,女性的推薦信強調「同情心」等特質,男性則強調「尊重」和「技能」。這些結果顯示升遷過程中的性別偏見,建議在使用AI撰寫推薦信時需謹慎。 PubMed DOI


站上相關主題文章列表

推薦信對學術和職涯很重要,特別對女性和少數族裔。研究發現推薦信常含有偏見,無論性別如何。利用AI等技術可幫助減少偏見。這篇文章討論了偏見對推薦信的影響,探討了AI減少偏見的潛力,並提供了融入書信撰寫的最佳實踐建議。 PubMed DOI

研究發現同儕審查報告大多正面有禮貌,但評分存在主觀性。女性第一作者遭不禮貌評論,顯示性別偏見,有女性資深作者則獲正面評論。研究強調ChatGPT分析科學文本潛力,同儕審查需透明公平。 PubMed DOI

LORs在學術醫學中很重要,但寫起來費時。用像ChatGPT這樣的AI工具寫LORs越來越受歡迎。研究發現學術醫師難以分辨AI和人工寫的LORs。AI可協助寫LORs,但需訂定政策以確保晉升公平。 PubMed DOI

研究發現GPT-4在醫療保健領域存在種族和性別偏見問題,未能充分考慮人口多樣性,容易產生刻板印象。建議在將GPT-4等大型語言模型應用於臨床前,務必評估和解決偏見問題。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究發現ChatGPT AI寫的推薦信存在性別偏見,女性姓名常受到不公平對待。這警示我們不應在重要場合使用此機器人。未來應該測試新一代AI以避免偏見。 PubMed DOI

研究發現,人工智慧生成的推薦信對男性候選人存在性別偏見,不論候選人性別如何。撰寫推薦信時,應留意避免引入潛在偏見。 PubMed DOI

這項研究探討普通外科住院醫師訓練的教職員是否能區分人類與AI(如ChatGPT)撰寫的文章。研究生成了十篇文章,五篇由住院醫師撰寫,五篇由ChatGPT生成。十位教職員進行盲評,結果顯示兩組文章的得分差異不大,ChatGPT的平均得分為66.0%,人類為70.0%。教職員在識別文章來源上也面臨困難,顯示出對AI生成內容的偏見。這提醒學術界需準備面對AI在醫學教育中的影響。 PubMed DOI

將人工智慧(AI)融入一般外科住院醫師訓練的招募過程,顯示出能改善傳統審查方法的不足。本研究評估了AI,特別是ChatGPT,在醫學生表現評估(MSPE)信件中的穩定性,並與經驗豐富的人類審查者比較。結果顯示,ChatGPT的評分一致性優於人類,但也有其局限性。這強調了在此背景下謹慎使用AI的必要性。雖然AI有助於改善住院醫師選拔,但仍需進一步研究以全面了解其能力與影響。 PubMed DOI

這項研究探討耳鼻喉科住院醫師選拔中,人工智慧模擬的決策是否受到人口統計偏見影響。研究使用OpenAI的GPT-4和GPT-4o模擬選拔委員會的決策,結果顯示RSC成員在種族、性別和性取向上存在偏見,特別偏好與自己相似的申請者。最新的ChatGPT-4o則顯示出對黑人女性和LGBTQIA+申請者的偏好,強調在選拔過程中需注意和減少這些偏見,以確保未來醫療人力的多樣性和代表性。 PubMed DOI