原始文章

大型基礎模型在生物醫學領域有潛力,但在臨床應用上面臨挑戰,如性能差距和高成本。本研究展示了一個開源的小型多模態模型,透過胸部X光影像生成診斷結果,解決放射學的問題。研究團隊訓練了697,000對影像-文本對,開發了專門的胸部X光編碼器,並與預訓練的語言模型整合。為了評估模型的準確性,團隊創建了CheXprompt,並用於基準測試,LLaVA-Rad模型表現優於一些大型模型。雖然尚未適合實時臨床使用,但這代表了在放射學中可臨床應用的進展。 PubMed DOI


站上相關主題文章列表

這項研究開發了一個名為CXR-LLaVA的開源多模態大型語言模型,專門用來解讀胸部X光影像並生成放射科報告。研究人員在包含374,881張標記影像的數據集上預訓練視覺變壓器,並結合大型語言模型進行微調,使用217,699份報告來提升生成準確性。CXR-LLaVA在內部測試中達到平均F1分數0.81,並在外部測試中為0.56,顯示出超越其他先進模型的潛力。該模型的報告準確率為72.7%,顯示出自動報告的可行性,並強調開源對進一步研究的重要性。 PubMed DOI

最近大型語言模型(LLMs)在放射診斷方面的進展顯著,無論是開源還是專有模型,都能透過本地或雲端部署來解決隱私問題。研究評估了十五個開源LLMs和一個封閉源LLM(GPT-4o)的診斷表現,使用了1,933個來自Eurorad的案例。結果顯示,GPT-4o的表現最佳,其次是Llama-3-70B,顯示開源模型的表現逐漸接近專有模型,顯示其在放射鑑別診斷中的潛力。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是ChatGPT-4和NotebookLM,使用METhodological RadiomICs Score(METRICS)工具來檢視放射組學研究的方法學質量。分析了2024年發表的48篇開放存取文章,結果顯示ChatGPT-4的中位數得分為79.5%,優於NotebookLM(61.6%)和人類專家(69.0%),且差異顯著。雖然LLMs在評估速度上較快,但仍需改進,以便更接近人類專家的評估結果。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

這項研究探討了一個專門的多模態生成式人工智慧模型在胸部X光片解讀上的影響,評估其診斷準確性和臨床價值。該模型基於42家醫院18年的X光片報告數據訓練,並在多個公共數據集上測試。 主要發現包括: - 模型對氣胸和皮下氣腫的檢測敏感度分別為95.3%和92.6%。 - 報告接受率:人工智慧模型70.5%、放射科醫師73.3%、GPT-4Vision僅29.6%。 - 人工智慧模型的報告獲得最高一致性和質量評分,顯示其可靠性優於GPT-4Vision。 總結來說,這項研究顯示專門的人工智慧模型在放射學診斷中具備顯著潛力。 PubMed DOI

這項研究評估了一種基於GPT的大型語言模型(LLM)在標註非結構化放射學報告的效果,並與現有的CheXbert和CheXpert進行比較,使用了MIMIC-CXR這個大型胸部X光數據集。結果顯示,LLM的平均F1分數為0.9014,超過CheXpert(0.8864),接近CheXbert(0.9047)。在處理較長、複雜的病理描述時,LLM表現尤為優異。整體來看,LLM是傳統BERT方法的有力替代,提供更好的上下文理解,並減少對特徵工程的需求。 PubMed DOI

這項研究探討了使用ChatGPT 4.0搭配「X-Ray Interpreter」來解讀急診胸部X光片。分析了1,400張來自NIH的影像,涵蓋七種病理類別。ChatGPT在識別正常X光片方面表現優異,敏感度達98.9%,特異度93.9%。對於肺炎和氣胸的診斷表現較好,但在肺不張和肺氣腫上則較差。總體來看,ChatGPT作為輔助診斷工具顯示潛力,但對於更細微的診斷仍需改進,未來可與專業影像識別模型整合以提升能力。 PubMed DOI

這項研究評估大型語言模型(LLMs)自動生成CAD-RADS 2.0分數的能力,對於疾病描述和臨床決策非常重要。研究分析了200份心臟CT報告,使用了多種先進的LLMs,包括GPT-3.5、GPT-4o、Mistral 7b、Mixtral 8 × 7b和不同版本的Llama3。結果顯示,GPT-4o和Llama3 70b的準確率最高,分別為93%和92.5%。這些發現顯示,增強上下文學習的模型能有效生成CAD-RADS 2.0分數,提高心臟CT報告的效率與一致性,且開源模型在數據安全上也具優勢。 PubMed DOI

開源大型語言模型(LLMs)在從放射科報告擷取標籤上,比傳統規則式工具(如 CheXpert)更準確。規模較大的 LLMs,特別在判讀困難異常(如肋骨骨折)時,敏感度更高。不同提示策略(如 chain-of-thought)效果不一。即使標籤有雜訊,用 LLM 擷取的標籤訓練影像分類器,表現仍不錯,但最終評估結果會受標註方法影響很大。因此,選對 LLM、提示方式和評估方法對醫療 AI 發展很重要。 PubMed DOI

這項研究比較五款主流大型語言模型解讀胸部CT報告的能力,發現GPT-4表現最佳,尤其在選擇題上最準確。微調後的GPT-3.5-Turbo也有明顯進步。整體來說,選擇題比開放式問答更容易答對。不同疾病和器官系統的結果有差異。結果顯示,優化後的AI模型有助於提升胸部CT解讀,對外科手術規劃很有幫助。 PubMed DOI