原始文章

最近,LLaMA3的生成式人工智慧在大型語言模型的診斷性能上有顯著提升。一項研究分析了392篇2022至2023年發表的案例報告,結果顯示LLaMA3在79.6%的案例中將最終診斷列入前10名,而LLaMA2僅49.7%。此外,LLaMA3在前5名和首要診斷的表現也更佳,分別為63%對38%和33.9%對22.7%。整體來看,LLaMA3的診斷性能改善了近1.5倍,但在臨床應用上仍需謹慎,因為這些AI模型尚未獲得醫學診斷的批准。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在自然語言處理中廣泛運用,包括在醫學領域進行臨床推理。一項研究比較了不同LLMs在辨識自體炎症性疾病的準確性,結果顯示,GPT-4在某些疾病的辨識上與醫師相當,但在其他方面醫師表現較好。這研究顯示LLMs在診斷自體免疫性疾病上有潛力。 PubMed DOI

研究比較了最新的人工智慧模型 GPT-4 與前身 GPT-3.5 在81個複雜醫學案例的表現。GPT-4 在主要診斷準確率達38.3%,在不同診斷方面提高至71.6%。它在84.0%的案例提出主要診斷建議,大多數領域優於GPT-3.5,除了藥物反應。GPT-4 在感染性疾病和藥物反應方面表現優異,但在認知障礙案例中稍差。總的來說,GPT-4 在準確診斷、全面不同診斷和適當調查方面展現潛力,雖然表現因醫學專業領域而略有不同。 PubMed DOI

研究指出,像ChatGPT這樣的大型語言模型對神經外科醫生在處理臨床病例時有幫助。ChatGPT 3.5和4.0在診斷方面比Perplexity AI和Bard AI更準確,前五個診斷中達到77.89%的正確率。然而,對於複雜疾病仍有挑戰。總的來說,LLMs有助於提升神經外科診斷的精準度。 PubMed DOI

研究比較了大型語言模型(LLMs)在臨床案例診斷上的表現,發現GPT4比GPT3.5更準確且提供更專業的診斷列表。然而,兩者仍有可能漏掉最可能的診斷。研究建議LLMs像GPT4可擴展診斷考慮範圍,但需改進以更符合疾病發生率和文獻。 PubMed DOI

大型語言模型(LLMs)在臨床診斷支持上展現了潛力。本研究比較了Bing、ChatGPT和Gemini三個LLMs在處理複雜臨床案例的表現,並評估了一個新開發的評分標準。結果顯示,Gemini的表現最佳,且評分工具的可靠性高,觀察者間變異性低。研究強調不同情境下模型表現的差異,並指出在實施前需評估診斷模型的有效性,為AI在臨床應用的整合提供了新的討論基礎。 PubMed DOI

這項研究評估了大型語言模型(LLMs)在複雜醫療案例中的診斷表現。研究分析了392份來自《美國病例報告期刊》的案例,使用了ChatGPT-4、Google Gemini和LLaMA2來生成鑑別診斷清單。結果顯示,ChatGPT-4的前10名診斷中,最終診斷納入率最高,達86.7%,其次是Google Gemini的68.6%和LLaMA2的54.6%。研究顯示ChatGPT-4在診斷準確性上明顯優於其他兩者,突顯了生成式人工智慧在醫療診斷中的潛力。 PubMed DOI

這項研究評估了10個大型語言模型(LLMs)與2位認證放射科醫生在分析胸部放射學案例的診斷表現。研究收集了124個案例,結果顯示Claude 3 Opus的診斷準確率最高,達70.29%,而放射科醫生的準確率則較低,分別為52.4%和41.1%。LLMs在特定案例中的表現較佳,顯示在適當醫療監督下,LLMs可能成為臨床決策的重要工具。 PubMed DOI

這項研究評估了三個生成式人工智慧(GAI)系統的診斷準確性,包括Gemini Advanced、Gemini和Bard,透過分析392份病例報告來比較它們生成鑑別診斷清單的能力。結果顯示,Gemini的表現最佳,前10名清單中納入最終診斷的比率為76.5%。雖然Gemini Advanced的準確性較低,但整體來說,Gemini在診斷準確性上優於Bard。研究強調這些系統尚未經過臨床驗證,未來仍需改進。 PubMed DOI

這項研究評估大型語言模型(LLM)對醫師診斷推理的影響,與傳統資源相比。研究於2023年11月29日至12月29日進行,參與者來自多所學術機構的醫師,分為兩組:一組使用LLM和傳統資源,另一組僅用傳統資源。結果顯示,LLM組的中位診斷推理分數為76%,略高於傳統組的74%,但差異不顯著(P = .60)。不過,LLM的單獨表現比傳統資源高出16個百分點(P = .03),顯示人工智慧在臨床實踐中的潛力。 PubMed DOI

這項研究比較了十五個大型語言模型(LLMs)在處理眼科案例的表現,測試來自《JAMA Ophthalmology》的二十個案例。結果顯示,這些模型的平均得分為19,三個模型(ChatGPT 3.5、Claude Pro和Copilot Pro)表現優於平均,其中Copilot Pro得分最高。雖然這些模型的可讀性高於八年級水平,對一般人來說較難理解,但對眼科醫生則可接受。研究認為,雖然LLMs的準確性不足以單獨用於病人護理,但在協助醫生方面顯示出潛力,特別是訂閱制模型。 PubMed DOI