原始文章

美國六大醫學組織的1,592份政策聲明中,約三分之一帶有明顯政治立場,而其中高達97.5%偏向自由派,僅2.5%偏保守。這結果讓外界質疑醫學組織的政治中立性及觀點多元性。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT-3.5和ChatGPT-4在醫療決策中的表現,結果顯示GPT-4優於GPT-3.5。資深醫師給予較高評分,尤其在倫理問題上。AI有助於醫師,但不應取代人類專業知識,需進一步研究整合到臨床環境中的方法。 PubMed DOI

大型語言模型(LLMs)如ChatGPT在醫療上有好處,但也引起道德疑慮。研究探討了LLMs在醫學上的道德議題,提到了優點如數據分析和決策支持,也指出了公平性、偏見和隱私等疑慮。強調在醫療上使用LLMs時,需要道德指導、人類監督和批判性評估。 PubMed DOI

研究發現ChatGPT在提供實驗室醫學資訊上表現優異,75.9%的評估者偏好它的回答,認為提供全面且正確的資訊。相較之下,醫學專業人士的回答則以簡潔見長。ChatGPT可能在回答醫學問題上勝過專業人士,但仍需進一步研究確認其實用性,並探索整合到醫療保健中的可能性。 PubMed DOI

這篇系統性回顧探討了ChatGPT在醫療保健的應用,包括教育、研究、寫作、病患溝通等。透過對多個資料庫的搜尋,找到83篇相關研究,顯示ChatGPT能改善科學研究和學術寫作的文法與清晰度,特別對非英語使用者有幫助。不過,它也有不準確性、倫理問題和情感敏感度不足等限制。雖然能簡化工作流程並支持診斷與教育,但仍需謹慎使用,因為資訊可靠性和誤導性回應的風險存在。 PubMed DOI

這項研究探討了OpenAI的ChatGPT 3.5和GPT 4.0在生成針對病人的臨床筆記時的表現,針對2型糖尿病、重度抑鬱症和懷疑腸癌三種病症進行分析。主要發現包括:生成的筆記比原始的更長,且使用了更多的代名詞;可讀性要求較高,特別是ChatGPT 3.5;同理心表現更佳;醫學準確性方面,ChatGPT 4.0的評價較高。總體來看,雖然增強了情感和同理心,但語言複雜性也提高,可能影響醫學準確性。 PubMed DOI

最近的研究比較了GPT-4與真正醫生在處理複雜初級醫療案例的表現。在瑞典進行的盲法觀察研究中,隨機選擇的醫生平均得分為6.0,頂尖醫生為7.2,而GPT-4僅為4.5,顯示出明顯差距。隨機醫生的表現比GPT-4高出1.6分,頂尖醫生則高出2.7分,且結果具統計意義。後續實驗中,GPT-4o的表現仍不及隨機醫生。整體來看,GPT-4在初級醫療情境中的表現不如人類醫生,未來應謹慎評估其應用。 PubMed DOI

人工智慧(AI)在醫療領域的應用帶來了機會與挑戰,尤其在倫理和專業問題上。本研究評估了ChatGPT 3.5和4.0在處理醫療情境中的表現,使用了273道來自不同題庫的問題。結果顯示,GPT-3.5的正確回答率普遍低於醫學生的平均水平,而GPT-4在某些題庫中表現較佳。雖然GPT-4在倫理和人際互動方面顯示潛力,但人類的推理能力仍然優於AI,未來需持續發展AI系統以提升其在醫療中的有效性。 PubMed DOI

這項研究探討了生成式人工智慧模型中的偏見,特別是這些偏見如何影響醫療環境中的臨床決策。研究使用OpenAI的GPT-4模擬醫生在資源有限的情況下選擇病人。結果顯示,醫生在種族、性別、年齡等方面存在顯著偏見,男性醫生偏好男性病人,女性醫生則偏好女性病人。此外,政治立場和性取向也影響醫生的選擇。研究強調,若不採取適當措施,這些偏見可能對病人結果造成不利影響。 PubMed DOI

這項研究發現,ChatGPT能有效分析醫學生訪談逐字稿,評估其對醫病關係的隱性態度,評分結果和專家高度一致,分類準確度也不錯(約0.8-0.85)。不過,ChatGPT抓到的重點片段較少,未來還需要用更多元的樣本來驗證。 PubMed DOI

這項研究發現,GPT-4在臨床倫理兩難情境下,能給出明確且積極的建議,與倫理原則的符合度高達86%。不過,遇到墮胎或代理孕母等議題時表現較弱,最低僅60%。雖然GPT-4有助於臨床決策,但偶爾會出錯或無法完全遵守倫理標準,實際應用上還是有侷限。 PubMed DOI