原始文章

深度學習在放射學的應用有助於改善診斷,但臨床接受度仍有挑戰。本研究開發了一個基於Llama 3-8B的語言模型,旨在自動生成MRI和CT報告的結論,以協助放射科醫生並提升效率。使用了15,000份來自克拉約瓦醫藥與藥學大學的報告數據進行訓練,並在NVIDIA RTX 3090 GPU上進行微調。結果顯示,模型在生成結論的準確性上表現良好,並獲得放射科醫生的正面評價。未來需解決數據偏見及臨床整合等問題。 PubMed DOI


站上相關主題文章列表

研究比較了GPT模型和放射科醫師生成放射學報告的表現,結果顯示GPT-4在準確性上優於GPT-2和GPT-3.5,但仍不及醫師。醫師在印象和鑑別診斷方面表現較佳。GPT-3.5和GPT-4生成的報告可讀性高,但準確性仍需醫師驗證。 PubMed DOI

研究比較了不同大型語言模型在放射學自動摘要生成的效果,重點在於準確的摘要對準確傳達放射學發現至關重要。研究使用T5和BART模型進行微調和零-shot學習,並與RNN進行比較。結果顯示,T5模型在Rouge-L分數達到0.638,且人類評判顯示T5生成的摘要與專業放射科醫師相似度高達70%。研究指出,自然語言處理和語言模型技術的進步有助於提升放射學摘要生成工具,對放射科醫師的工作有所助益。 PubMed DOI

人工智慧在放射學報告生成方面有進步,但評估AI報告仍有挑戰。結合放射科醫師專業知識與GPT-3.5、GPT-4等大型語言模型,使用ICIL和CoT推理對齊評估標準。透過回歸模型聚合分數進行比較,實驗結果顯示此方法優於現有指標。穩健性已驗證,將釋出專家註釋以增進AI醫學報告評估品質。 PubMed DOI

這項研究旨在提升一個開源的大型語言模型(LLM),自動生成來自不同醫院的放射學報告印象,涵蓋CT、超音波和MRI等影像檢查。研究人員使用UCSF醫療中心和Zuckerberg舊金山總醫院的大數據集,透過ROUGE分數評估模型表現。結果顯示,該LLM與專科醫師撰寫的印象有顯著重疊,雖然外部驗證時表現稍降。針對CT胸部檢查的讀者研究顯示,模型生成的印象在臨床和語法準確性上表現良好,顯示其在輔助放射科醫師工作中的潛力。 PubMed DOI

這項研究評估了專有與開放的大型語言模型(LLMs)在分析胰臟癌放射學報告的有效性,重點在於疾病的存在、位置及治療反應。研究分析了203份去識別化的報告,使用了GPT-4、GPT-3.5-turbo及開放模型如Gemma-7B和Llama3-8B。結果顯示,GPT-4在確定疾病狀態上準確率最高,達75.5%。開放模型在某些方面表現不如專有模型,但仍具潛力,特別是在專有模型無法使用時。這項研究為未來腫瘤學領域的LLM研究提供了重要資源。 PubMed DOI

這項研究評估大型語言模型(LLMs)在翻譯放射科報告的效果。由於合格翻譯者不足,這對病人護理造成挑戰。研究團隊將100份合成報告翻譯成九種語言,並使用十個LLM進行自動翻譯,結果由18位放射科醫生評估。發現GPT-4的翻譯品質最佳,特別是在英德、英希、英泰和英土語言對上表現突出。雖然LLMs在清晰度和一致性上表現良好,但醫學術語的準確性仍需改進。總體來說,LLMs能有效翻譯放射科報告,但不同模型和語言的表現有所差異。 PubMed DOI

在放射學中,人工智慧(AI)已改善報告生成,但評估這些報告仍具挑戰。傳統評估指標常無法捕捉臨床細微語義,或過於專注細節,影響報告清晰度。為解決此問題,我們結合放射科醫師專業知識與大型語言模型(如GPT-3.5和GPT-4),採用上下文指導學習和思維鏈推理,促進AI與人類報告的比較。實驗顯示,我們的方法在評估準確性上顯著優於現有指標,並計劃公開放射科專家註解,為未來評估建立新基準。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

大型語言模型(LLMs)如ChatGPT、Llama和Claude,正在改變醫療保健,特別是在放射科。最近,弗賴堡和巴塞爾大學醫院的研究顯示,這些系統能有效整合影像存檔與傳輸系統(PACS)和電子健康紀錄(EHR),提升醫師效率,縮短報告時間,並自動化例行任務。研究結果顯示,LLMs不僅提高了診斷質量,還促進了跨學科合作。未來應著重增強透明度和擴大應用範圍,確保遵守倫理和法律標準。 PubMed DOI

這項研究評估了一種基於GPT的大型語言模型(LLM)在標註非結構化放射學報告的效果,並與現有的CheXbert和CheXpert進行比較,使用了MIMIC-CXR這個大型胸部X光數據集。結果顯示,LLM的平均F1分數為0.9014,超過CheXpert(0.8864),接近CheXbert(0.9047)。在處理較長、複雜的病理描述時,LLM表現尤為優異。整體來看,LLM是傳統BERT方法的有力替代,提供更好的上下文理解,並減少對特徵工程的需求。 PubMed DOI