原始文章

這篇論文提出一套新架構,結合影像分割、圖譜定位和大型語言模型,能自動產生清楚又可信的醫學報告。透過防止AI亂編(像用JSON格式和限制提示),大幅提升報告正確性和可解釋性,解決AI黑盒問題。實測在腦腫瘤和多發性硬化症上,分割和報告表現都很優秀,有助提升醫界對AI的信任。完整程式碼可在GitHub下載。 PubMed DOI


站上相關主題文章列表

研究測試了精細調校的大型語言模型(LLM)在分類腦部磁振造影報告的效能。LLM表現高準確、敏感,且處理速度快,比人類放射科醫師更有效。結果顯示LLM在醫學影像分析上有潛力,與專業醫師相當。 PubMed DOI

多模態大型語言模型(MLLMs)正在改變醫療保健,特別是在自動化放射學報告生成(RRG)方面。雖然RRG在2D影像上已經取得成效,但3D醫學影像的應用仍待開發。為此,我們建立了3D-BrainCT數據集,包含18,885對文本與掃描影像,並開發了專為3D CT RRG設計的BrainGPT模型。我們提出了特徵導向放射學任務評估(FORTE)來評估報告質量,結果顯示BrainGPT的FORTE F1分數為0.71,74%的報告與人類撰寫的無法區分。這項研究為未來醫療應用中的人機協作提供了堅實的基礎。 PubMed DOI

Reg2RG框架針對CT報告生成的挑戰,專注於特定解剖區域,提升診斷性能。它利用通用分割模組的遮罩捕捉局部特徵,並引入局部特徵解耦(LFD)策略,以低計算成本保持高解析度。框架還實施區域報告對齊(RRA)訓練策略,透過識別參考區域來生成更具可解釋性的報告。大型語言模型(LLM)用作解碼器,從視覺特徵生成報告。實驗結果顯示,Reg2RG在自然語言生成和臨床效能上超越多種先進方法,且代碼已在GitHub公開。 PubMed DOI

這項研究用私有大型語言模型在本地處理814份放射科報告,成功把內容重組、精簡,並依器官系統分類。Mixtral LLM表現最好,能減少超過53%冗詞,提升報告清晰度和結構。結果證明開源LLM不僅保障資料安全,也能有效簡化報告流程,幫助醫師更快掌握重點,優化臨床工作。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

大型語言模型像GPT-4和Gemini在乳房影像領域很有潛力,可協助報告撰寫、診斷標準化和整合臨床指引。未來多模態能力也有望提升腫瘤分類等表現。不過,目前仍有幻覺、偏見、知識落差和隱私等挑戰。現階段LLMs只能當輔助工具,無法取代醫師,導入臨床還需嚴謹訓練和監督。 PubMed DOI

大型語言模型在癌症影像領域應用越來越多,像是自動產生報告、分類影像、整合臨床指引,還能幫助病人理解報告。未來有機會協助腫瘤委員會討論、治療管理和預測副作用。不過,目前還有幻覺和表現不穩定等問題,限制臨床應用。 PubMed DOI

這項研究發現,像GPT-4這類大型語言模型能把放射科醫師的摘要快速轉成完整CT報告,速度比傳統方式快,品質也差不多。雖然大多數錯誤跟模板有關,重大臨床錯誤很少見,但還是建議要有人工審查,確保報告正確無誤。 PubMed DOI

大型語言模型能幫助放射科減輕工作量,但還有像是亂編內容和資訊來源不明的問題。結合RAG技術能提升可靠性,但面對大量或複雜資料時還需改進。本文回顧LLMs最新進展及放射科應用案例,並提出未來研究方向。 PubMed DOI

RadGPT 結合概念擷取和大型語言模型,能自動產生解釋和問答題,協助病人看懂放射科報告。研究顯示,AI 產生的內容多獲醫師好評,且無安全疑慮。LLM 產生的問題比傳統模板更優,這工具有助病人理解複雜醫療資訊,潛力十足。 PubMed DOI