原始文章

這篇論文提出一種多階段訓練法,先用疾病標籤、再用實體關係、最後才用完整報告來訓練大型語言模型,逐步增加難度。這樣能讓模型更專注臨床重點,生成的放射科報告在語言流暢度和臨床準確性都表現最佳。程式碼已開源於 GitHub。 PubMed DOI


站上相關主題文章列表

將非結構化的放射科報告轉換為結構化數據,雖然大型語言模型(LLMs)展現出潛力,但面臨多項挑戰,如醫學術語的模糊性、縮寫的使用、報告表達的多樣性及數據質量不一等。為了克服這些問題,可以採用深度學習模型進行微調、結合規則系統、使用本體論等方法。此外,確保數據質量與可靠性也很重要,需透過穩健的評估指標、上下文整合、持續學習及人類監督來提升準確性。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

多模態大型語言模型(MLLMs)正在改變醫療保健,特別是在自動化放射學報告生成(RRG)方面。雖然RRG在2D影像上已經取得成效,但3D醫學影像的應用仍待開發。為此,我們建立了3D-BrainCT數據集,包含18,885對文本與掃描影像,並開發了專為3D CT RRG設計的BrainGPT模型。我們提出了特徵導向放射學任務評估(FORTE)來評估報告質量,結果顯示BrainGPT的FORTE F1分數為0.71,74%的報告與人類撰寫的無法區分。這項研究為未來醫療應用中的人機協作提供了堅實的基礎。 PubMed DOI

這項研究評估了一種基於GPT的大型語言模型(LLM)在標註非結構化放射學報告的效果,並與現有的CheXbert和CheXpert進行比較,使用了MIMIC-CXR這個大型胸部X光數據集。結果顯示,LLM的平均F1分數為0.9014,超過CheXpert(0.8864),接近CheXbert(0.9047)。在處理較長、複雜的病理描述時,LLM表現尤為優異。整體來看,LLM是傳統BERT方法的有力替代,提供更好的上下文理解,並減少對特徵工程的需求。 PubMed DOI

Reg2RG框架針對CT報告生成的挑戰,專注於特定解剖區域,提升診斷性能。它利用通用分割模組的遮罩捕捉局部特徵,並引入局部特徵解耦(LFD)策略,以低計算成本保持高解析度。框架還實施區域報告對齊(RRA)訓練策略,透過識別參考區域來生成更具可解釋性的報告。大型語言模型(LLM)用作解碼器,從視覺特徵生成報告。實驗結果顯示,Reg2RG在自然語言生成和臨床效能上超越多種先進方法,且代碼已在GitHub公開。 PubMed DOI

這項研究用私有大型語言模型在本地處理814份放射科報告,成功把內容重組、精簡,並依器官系統分類。Mixtral LLM表現最好,能減少超過53%冗詞,提升報告清晰度和結構。結果證明開源LLM不僅保障資料安全,也能有效簡化報告流程,幫助醫師更快掌握重點,優化臨床工作。 PubMed DOI

這篇論文提出「Noisy Report Refinement(NRR)」新任務,專注於把雜亂的線上文本轉換成乾淨的放射科報告。作者用大型語言模型結合自我批判和選擇策略來提升報告品質,並推出專屬的新基準NRRBench。實驗證明,他們的方法在報告的乾淨度、實用性和正確性上都比現有方法更好。 PubMed DOI

大型語言模型能幫助放射科減輕工作量,但還有像是亂編內容和資訊來源不明的問題。結合RAG技術能提升可靠性,但面對大量或複雜資料時還需改進。本文回顧LLMs最新進展及放射科應用案例,並提出未來研究方向。 PubMed DOI

這項研究提出結合特徵摘要、思路鏈推理和混合型RAG架構的新提示工程方法,能提升大型語言模型判讀胸部CT報告、診斷肺部疾病的準確度。用2,965份報告測試,結果比傳統深度學習和其他提示法更準,外部驗證也表現優異。此方法不僅提升可解釋性,也有助臨床更精確診斷。 PubMed DOI

這篇研究發現,就算只有少量高品質標註,只要用像 GPT-4o 這種高品質合成標註來微調 Llama 3.1-8B 這類輕量級語言模型,醫療任務表現也能大幅提升(micro F1 可達 0.91)。即使合成標註品質較差,微調後的模型表現還是能超越原本的雜訊標註,顯示模型很有韌性,合成資料在醫療 LLM 微調上很有潛力。 PubMed