原始文章

這項研究提出了一種新方法,結合大型語言模型(LLMs)與電腦輔助診斷(CAD)網絡,提升胸部X光片的醫學影像分析。雖然LLMs在自然語言處理上表現優異,但在醫學影像上通常不佳。這個框架利用LLMs的優勢,改善CAD系統的診斷準確性和報告生成,讓報告品質更高。使用ChatGPT後,診斷表現提升了16.42個百分點,GPT-3則在F1-score上提高了15.00個百分點。這種創新方法有潛力改變臨床決策過程,並改善病患互動。 PubMed DOI


站上相關主題文章列表

研究比較大型語言模型(LLMs)和神經放射學家在臨床案例中的表現,結果顯示神經放射學家的判讀能力優於LLMs。ChatGPT和Glass AI表現相近,顯示在醫學文本訓練上有進步空間。LLMs雖有潛力,但仍需改進,顯示醫學領域仍需專業知識。 PubMed DOI

這篇論文討論了人工智慧,特別是像ChatGPT這樣的大型語言模型,如何透過簡化解釋過程,改變醫學影像處理。這些模型推動的人工智慧已經透過提高效率和病人護理品質,徹底改革了醫療保健。評論強調了人工智慧的潛力,特別是大型語言模型,在各方面增強醫學影像處理,並強調了它們在推動醫療保健方面的重要性。 PubMed DOI

研究發現使用大型語言模型(LLMs)在放射學中預測臨床情境的效果。Glass AI在某些領域表現比ChatGPT好,但在其他情境中表現較差。整體而言,LLMs有助於預測影像研究,尤其是Glass AI,顯示了在放射學決策上的潛力。 PubMed DOI

研究指出大型語言模型(LLMs)如Bard、ChatGPT-3.5和GPT-4在醫學教育中對診斷罕見複雜疾病有幫助。LLMs表現比人類和MedAlpaca更好,尤其是GPT-4最準確。每個LLM需要不同的提示策略,提示工程至關重要。研究顯示LLMs能提升對具挑戰性醫學病例的診斷推理,對研究人員和醫護人員具啟發性。 PubMed DOI

這篇文章提供了醫學影像研究者實施語言模型的詳盡指南,包含基本原則、應用於醫學影像的方式,以及好處如提升臨床效率和減少診斷錯誤。希望透過激發新想法與創新,啟發整合語言模型與醫學影像研究,並提供相關學者有價值的資源。 PubMed DOI

整合CAD和LLMs到臨床應用,可自動化診斷並提供虛擬諮詢。現有研究有限,ChatCAD+作為解決方案,包含報告生成和互動模組,解釋醫學影像並提供高質量報告和權威建議。旨在提升診斷和諮詢的一致性和可靠性,與醫學專業相關。原始碼在GitHub上。 PubMed DOI

研究比較了大型語言模型(LLMs)在臨床案例診斷上的表現,發現GPT4比GPT3.5更準確且提供更專業的診斷列表。然而,兩者仍有可能漏掉最可能的診斷。研究建議LLMs像GPT4可擴展診斷考慮範圍,但需改進以更符合疾病發生率和文獻。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在冠狀動脈疾病(CAD)診斷中的表現,特別是根據CAD-RADS 2.0指引進行比較。結果顯示,ChatGPT 4o的準確率最高,達到100%,接著是ChatGPT 4和Claude 3 Opus,準確率為96.6%。其他模型的準確率也不錯,介於90%到93.3%之間。這些結果顯示LLMs在改善CAD的放射報告和病人照護方面的潛力,並強調進一步研究其視覺診斷能力的重要性。 PubMed DOI

這項研究評估大型語言模型(LLMs)在解釋乳腺影像報告及提供臨床建議的表現,分為兩個步驟: 1. **文本評估**:比較十個LLMs與放射科醫師在100道BI-RADS選擇題上的準確率。Claude 3.5 Sonnet表現最佳(90%),超過一般放射科醫師(78%)和乳腺放射科醫師(82%)。 2. **視覺評估**:測試五個多模態LLMs在100張乳腺超音波影像上的表現,Claude 3.5 Sonnet以59%準確率領先。 研究顯示,雖然LLMs在文本評估中表現良好,但視覺診斷能力有限,需在放射科醫師監督下使用,以避免誤診。 PubMed DOI

這項研究評估了10個大型語言模型(LLMs)與2位認證放射科醫生在分析胸部放射學案例的診斷表現。研究收集了124個案例,結果顯示Claude 3 Opus的診斷準確率最高,達70.29%,而放射科醫生的準確率則較低,分別為52.4%和41.1%。LLMs在特定案例中的表現較佳,顯示在適當醫療監督下,LLMs可能成為臨床決策的重要工具。 PubMed DOI