原始文章

這項研究開發了一個名為CXR-LLaVA的開源多模態大型語言模型,專門用來解讀胸部X光影像並生成放射科報告。研究人員在包含374,881張標記影像的數據集上預訓練視覺變壓器,並結合大型語言模型進行微調,使用217,699份報告來提升生成準確性。CXR-LLaVA在內部測試中達到平均F1分數0.81,並在外部測試中為0.56,顯示出超越其他先進模型的潛力。該模型的報告準確率為72.7%,顯示出自動報告的可行性,並強調開源對進一步研究的重要性。 PubMed DOI


站上相關主題文章列表

這項研究評估了多種大型語言模型(LLMs)在冠狀動脈疾病(CAD)診斷中的表現,特別是根據CAD-RADS 2.0指引進行比較。結果顯示,ChatGPT 4o的準確率最高,達到100%,接著是ChatGPT 4和Claude 3 Opus,準確率為96.6%。其他模型的準確率也不錯,介於90%到93.3%之間。這些結果顯示LLMs在改善CAD的放射報告和病人照護方面的潛力,並強調進一步研究其視覺診斷能力的重要性。 PubMed DOI

這項研究評估了10個大型語言模型(LLMs)與2位認證放射科醫生在分析胸部放射學案例的診斷表現。研究收集了124個案例,結果顯示Claude 3 Opus的診斷準確率最高,達70.29%,而放射科醫生的準確率則較低,分別為52.4%和41.1%。LLMs在特定案例中的表現較佳,顯示在適當醫療監督下,LLMs可能成為臨床決策的重要工具。 PubMed DOI

這項研究提出了一種新方法,結合大型語言模型(LLMs)與電腦輔助診斷(CAD)網絡,提升胸部X光片的醫學影像分析。雖然LLMs在自然語言處理上表現優異,但在醫學影像上通常不佳。這個框架利用LLMs的優勢,改善CAD系統的診斷準確性和報告生成,讓報告品質更高。使用ChatGPT後,診斷表現提升了16.42個百分點,GPT-3則在F1-score上提高了15.00個百分點。這種創新方法有潛力改變臨床決策過程,並改善病患互動。 PubMed DOI

這項研究旨在提升一個開源的大型語言模型(LLM),自動生成來自不同醫院的放射學報告印象,涵蓋CT、超音波和MRI等影像檢查。研究人員使用UCSF醫療中心和Zuckerberg舊金山總醫院的大數據集,透過ROUGE分數評估模型表現。結果顯示,該LLM與專科醫師撰寫的印象有顯著重疊,雖然外部驗證時表現稍降。針對CT胸部檢查的讀者研究顯示,模型生成的印象在臨床和語法準確性上表現良好,顯示其在輔助放射科醫師工作中的潛力。 PubMed DOI

放射學中的結構化報告在可比性、可讀性和細節上有明顯優勢,但其採用仍然有限。本研究探討了一種本地托管的語言模型,能將自由文本的放射報告轉換為結構化數據,且不影響放射科醫師的工作流程。研究結果顯示,該模型生成的結構化報告在英語和德語的準確性接近人類讀者,顯示出良好的性能。結論指出,為了提高結構化報告的採用,需加強自動化系統與臨床流程的整合,讓醫師能在報告過程中受益於結構化數據。 PubMed DOI

這篇評論探討大型語言模型(LLMs)和多模態大型語言模型(MLLMs)在放射學的進展,強調它們在報告生成、影像解讀、電子健康紀錄摘要等方面的潛力。透過自動化,這些模型能減輕放射科醫師的負擔,提高診斷準確性,並促進跨學科合作,最終提升病人護理品質。不過,評論也指出MLLMs在解讀三維醫學影像及整合影像與文本數據上仍面臨挑戰,並呼籲對評估方法的改進。 PubMed DOI

本研究評估了兩種人工智慧工具,M4CXR 和 ChatGPT-4o,在解讀胸部 X 光片的診斷能力。研究分析了826張影像,結果顯示M4CXR在準確性和一致性上均優於ChatGPT,診斷準確性分別為60-62%和42-45%。M4CXR在解剖定位的準確性達76-77.5%,而ChatGPT僅36-36.5%。研究強調這些技術的互補潛力,建議結合人工智慧與臨床判斷,以提升病患護理結果。 PubMed DOI

這項研究評估大型語言模型(LLMs)在翻譯放射科報告的效果。由於合格翻譯者不足,這對病人護理造成挑戰。研究團隊將100份合成報告翻譯成九種語言,並使用十個LLM進行自動翻譯,結果由18位放射科醫生評估。發現GPT-4的翻譯品質最佳,特別是在英德、英希、英泰和英土語言對上表現突出。雖然LLMs在清晰度和一致性上表現良好,但醫學術語的準確性仍需改進。總體來說,LLMs能有效翻譯放射科報告,但不同模型和語言的表現有所差異。 PubMed DOI

這項研究評估了一種基於GPT的大型語言模型(LLM)在標註非結構化放射學報告的效果,並與現有的CheXbert和CheXpert進行比較,使用了MIMIC-CXR這個大型胸部X光數據集。結果顯示,LLM的平均F1分數為0.9014,超過CheXpert(0.8864),接近CheXbert(0.9047)。在處理較長、複雜的病理描述時,LLM表現尤為優異。整體來看,LLM是傳統BERT方法的有力替代,提供更好的上下文理解,並減少對特徵工程的需求。 PubMed DOI

大型基礎模型在生物醫學領域有潛力,但在臨床應用上面臨挑戰,如性能差距和高成本。本研究展示了一個開源的小型多模態模型,透過胸部X光影像生成診斷結果,解決放射學的問題。研究團隊訓練了697,000對影像-文本對,開發了專門的胸部X光編碼器,並與預訓練的語言模型整合。為了評估模型的準確性,團隊創建了CheXprompt,並用於基準測試,LLaVA-Rad模型表現優於一些大型模型。雖然尚未適合實時臨床使用,但這代表了在放射學中可臨床應用的進展。 PubMed DOI