原始文章

這項研究評估了兩個大型語言AI模型,Claude 3 Opus和Claude 3.5 Sonnet,在放射影像和臨床歷史下的診斷表現。測試分為三種條件:僅臨床歷史、臨床歷史加影像發現,以及臨床歷史加關鍵影像。結果顯示,Sonnet的表現普遍較佳,尤其在條件3中,正確診斷率達30.1%。統計分析顯示,加入關鍵影像和臨床歷史能顯著提高診斷準確性。總體而言,提供全面資料能提升這兩個AI模型的診斷能力。 PubMed DOI


站上相關主題文章列表

研究使用GPT-3.5 Turbo和GPT-4等語言模型在神經放射學案例上進行診斷,結果顯示在不同任務上有不同表現。結合案例搜尋和直接診斷可提升GPT-3.5 Turbo表現,但整體仍有改進空間,需注意模型限制。結果顯示這些模型在特定情況下可作為輔助診斷工具。 PubMed DOI

大型語言模型(LLMs)如GPT-4o、Claude 3 Opus和Gemini 1.5 Pro在解讀病患病史和影像檢查結果上有潛力。研究比較它們在Radiology Diagnosis Please Cases數據的表現,發現Claude 3 Opus在解決放射學測驗案例時表現最佳。這些LLMs可能有助於放射科醫師更準確地評估和描述影像檢查結果。 PubMed DOI

研究比較了GPT-4V和Gemini Pro Vision等大型語言模型在診斷能力上的表現,結果顯示隨著溫度設定提高,準確性也增加。儘管放射科醫師整體表現較佳,尤其在高溫度下,但這些模型在診斷決策上顯示出潛力成為輔助工具。 PubMed DOI

這項研究評估了不同視覺語言模型(VLMs)在放射學診斷的準確性,特別針對日本的專業考試。比較的模型包括GPT-4o、GPT-4V和Claude-3。分析了383個JDR考題、300個JNM考題和322個JIR考題。結果顯示,GPT-4o在所有考試中表現最佳,JDR得分49%、JNM得64%、JIR得43%。對於有圖片的問題,JDR得48%、JNM得59%、JIR得34%。統計分析顯示,GPT-4o在大多數評估中顯著優於其他模型,顯示其在放射學診斷中的潛力。 PubMed DOI

最近在人工智慧(AI)和大型語言模型(LLMs)方面的進展,特別是在皮膚科,顯示出良好的潛力。本研究比較了Claude 3 Opus和ChatGPT(GPT-4)在分析皮膚鏡影像以檢測黑色素瘤的表現。結果顯示,Claude 3 Opus在惡性區分上表現較佳,敏感度和特異度均高於ChatGPT。雖然兩者在診斷上有其潛力,但仍存在錯誤,強調了AI與臨床醫生合作的重要性,以開發更可靠的診斷工具。 PubMed DOI

這項研究評估了新推出的AI模型Claude 3 Opus在診斷和規劃頭頸部鱗狀細胞癌(HNSCC)治療的效果,並與ChatGPT 4.0進行比較。研究於2024年3月進行,涵蓋50例HNSCC病例,並將AI模型的建議與傳統的多學科腫瘤委員會(MDT)建議進行對比。結果顯示,Claude 3 Opus在診斷準確性上優於ChatGPT 4.0,且提供的治療建議與MDT一致。雖然在臨床建議和解釋方面表現相當,但Claude 3未引用資訊來源。總體而言,Claude 3 Opus顯示出作為診斷工具的潛力,建議在臨床環境中使用。 PubMed DOI

這項研究評估了多模態人工智慧模型在NEJM影像挑戰中的表現,並與人類集體智慧進行比較。結果顯示,人工智慧在臨床診斷上有潛力,但也有其限制。Anthropic的Claude 3系列在準確性上超越了人類平均水平,但人類集體決策的表現仍優於所有人工智慧模型。此外,GPT-4 Vision Preview在較簡單問題上反應更有效,特別是對小圖像和長文字的問題。 PubMed DOI

這項研究評估大型語言模型(LLMs)在解釋乳腺影像報告及提供臨床建議的表現,分為兩個步驟: 1. **文本評估**:比較十個LLMs與放射科醫師在100道BI-RADS選擇題上的準確率。Claude 3.5 Sonnet表現最佳(90%),超過一般放射科醫師(78%)和乳腺放射科醫師(82%)。 2. **視覺評估**:測試五個多模態LLMs在100張乳腺超音波影像上的表現,Claude 3.5 Sonnet以59%準確率領先。 研究顯示,雖然LLMs在文本評估中表現良好,但視覺診斷能力有限,需在放射科醫師監督下使用,以避免誤診。 PubMed DOI

這項研究評估了10個大型語言模型(LLMs)與2位認證放射科醫生在分析胸部放射學案例的診斷表現。研究收集了124個案例,結果顯示Claude 3 Opus的診斷準確率最高,達70.29%,而放射科醫生的準確率則較低,分別為52.4%和41.1%。LLMs在特定案例中的表現較佳,顯示在適當醫療監督下,LLMs可能成為臨床決策的重要工具。 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),GPT-4o 和 Claude 3 Opus,在根據病歷和屍體CT掃描識別死亡原因的能力。研究涵蓋100個經解剖確認的成人案例。結果顯示,GPT-4o在根本死亡原因的準確率為78%、72%和78%,而Claude 3 Opus則為72%、56%和75%。在即時死亡原因方面,GPT-4o的準確率較低,分別為55%、58%和62%,而Claude 3 Opus稍高,為60%、62%和63%。整體而言,兩者在診斷死亡原因上表現不俗。 PubMed DOI