原始文章

單靠大型語言模型(LLMs)做高風險決策有風險,因為它們會出現幻覺和偏誤。這項研究提出結合醫師和LLM的混合系統,分析四萬多個診斷案例後發現,醫師和LLM合作比單獨使用任何一方都更準確,因為他們各有不同的優缺點。這種混合方式能提升醫療診斷的準確率。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在臨床決策中或許有好處,但目前還不適合實際醫療使用。一項研究指出,LLMs在真實病例中無法正確診斷、無法遵循指引、難以解釋檢驗結果,且難以整合到臨床流程中,可能危害患者健康。需要更多研究以改進LLMs在臨床決策的應用。 PubMed DOI

臨床決策中的認知偏誤可能導致誤診和病人不良結果。本研究探討大型語言模型(LLMs)如何透過多代理框架來減少這些偏誤。研究人員模擬臨床決策,創建不同角色的代理進行對話,以提高診斷準確性。分析16個因認知偏誤而誤診的案例,測試各種代理組合。使用GPT-4的代理包括決策者、挑戰偏誤的魔鬼代言人等。結果顯示,初始診斷準確率為0%,但經過討論後,最佳框架的準確率提升至76%。這顯示LLM驅動的對話在醫療情境中具潛力。 PubMed DOI

這項研究探討了多模態大型語言模型(LLMs),特別是GPT-4o和Claude Sonnet 3.5,如何結合文本與視覺資訊進行醫療診斷。研究在120個臨床案例中進行測試,結果顯示在只有文本的情況下,GPT-4o的準確率為70.8%,遠超醫生的39.5%。當加入圖片時,所有參與者的表現都有提升,尤其是醫生的準確率增幅最明顯。GPT-4o在有圖片的情況下達到84.5%,而醫生則為78.8%。這顯示LLMs在視覺數據處理上仍需加強,以達到人類醫生的表現。 PubMed DOI

這項研究探討人類與大型語言模型(LLMs)合作對腦部MRI掃描診斷準確性和效率的影響。研究中,六名放射科住院醫師評估40個挑戰性MRI案例,分別使用傳統網路搜尋和LLM輔助搜尋。結果顯示,LLM輔助的診斷準確率為61.4%,高於傳統的46.5%,且差異具統計意義。不過,解讀時間和信心水平未見變化。研究指出的挑戰包括案例描述不準確、LLM的幻覺現象及上下文不足。雖然LLM能提升診斷準確性,但仍需進一步研究以優化人類與LLM的合作。 PubMed DOI

這篇系統性回顧分析30項比較LLM和醫師臨床診斷的研究,發現LLM診斷準確率雖不錯,但多數研究有偏誤,且準確度還不及醫師。不過,若小心運用,未來LLM有望成為醫療智慧助理。 PubMed DOI

最新研究發現,OpenAI 的 o1 LLM 在急診臨床決策上表現跟醫師差不多,診斷和收治判斷準確率都超過九成,甚至在異常檢驗判讀上還拿到滿分。相比之下,Claude-3.5-Sonnet 和 Llama-3.2-70B 在治療計畫上表現較弱。整體來說,o1 有機會成為急診醫療現場的專業決策輔助工具。 PubMed DOI

這項研究比較 ChatGPT-4、Gemini 1.5 和傳統診斷系統 DXplain,在36個臨床案例中測試有無檢驗數據的表現。沒檢驗數據時,DXplain雖然正確診斷次數較多,但差異不顯著。有檢驗數據後,三者表現都提升。研究建議結合 LLMs 的語言理解和 DDSS 的推理能力,有望提升診斷支援效果。 PubMed DOI

這項研究發現,DeepSeek-R1 AI 能有效協助加護病房住院醫師診斷複雜重症,讓診斷正確率從 27% 提升到 58%,AI 自己的正確率則是 60%。有 AI 幫忙時,住院醫師不只診斷更準確,速度也更快,鑑別診斷品質也提升。整體來說,這類 AI 未來很有機會成為加護病房醫師的重要幫手。 PubMed DOI

這項研究找來70位醫師,測試專為醫師協作設計的GPT AI診斷系統。無論是AI先診斷還是醫師先診斷,協作後的正確率都比傳統工具高(85%和82%對75%),和單純AI診斷(90%)差不多。結果顯示,協作型AI能有效提升診斷準確率,也促進醫師與AI的合作。 PubMed DOI

這項研究比較了多款主流大型語言模型(如Claude、GPT、Gemini)在臨床診斷上的表現。結果顯示,這些AI在常見病例的診斷準確率都超過九成,Claude 3.7甚至有滿分表現;在複雜案例中,Claude 3.7也勝出。小型模型在簡單情境下表現也不差。研究強調,未來應把AI工具實際整合進臨床與醫學教育,提升照護品質。 PubMed DOI