原始文章

這項研究開發了一個名為CXR-LLaVA的開源多模態大型語言模型,專門用來解讀胸部X光影像並生成放射科報告。研究人員在包含374,881張標記影像的數據集上預訓練視覺變壓器,並結合大型語言模型進行微調,使用217,699份報告來提升生成準確性。CXR-LLaVA在內部測試中達到平均F1分數0.81,並在外部測試中為0.56,顯示出超越其他先進模型的潛力。該模型的報告準確率為72.7%,顯示出自動報告的可行性,並強調開源對進一步研究的重要性。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)在從非結構化放射報告中提取臨床數據的效果,專注於七種肺部疾病。研究分析了1,800份報告,並使用Google Gemini Pro 1.0、OpenAI的GPT-3.5和GPT-4進行數據提取。結果顯示,所有模型的準確率都很高,特別是GPT-4的表現最佳,敏感性和特異性均達到優秀水準。這些結果顯示,LLMs,尤其是GPT-4,可能成為醫生進行病歷審查的有效替代方案,提升非結構化放射數據的提取能力。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來自動化放射科報告的分類,並生成標籤以訓練卷積神經網絡(CNN)檢測踝部骨折。研究使用Mixtral-8×7B-Instruct-v0.1 LLM,對7,561份報告進行分類,並在250份報告上達到92%的準確率。生成的標籤用於建立包含15,896張影像的訓練數據集,CNN在測試數據集上達到89.5%的準確率。結果顯示,LLMs能有效提升醫學影像分類的訓練效率。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

多模態大型語言模型(MLLMs)正在改變醫療保健,特別是在自動化放射學報告生成(RRG)方面。雖然RRG在2D影像上已經取得成效,但3D醫學影像的應用仍待開發。為此,我們建立了3D-BrainCT數據集,包含18,885對文本與掃描影像,並開發了專為3D CT RRG設計的BrainGPT模型。我們提出了特徵導向放射學任務評估(FORTE)來評估報告質量,結果顯示BrainGPT的FORTE F1分數為0.71,74%的報告與人類撰寫的無法區分。這項研究為未來醫療應用中的人機協作提供了堅實的基礎。 PubMed DOI

大型語言模型(LLMs)如ChatGPT、Llama和Claude,正在改變醫療保健,特別是在放射科。最近,弗賴堡和巴塞爾大學醫院的研究顯示,這些系統能有效整合影像存檔與傳輸系統(PACS)和電子健康紀錄(EHR),提升醫師效率,縮短報告時間,並自動化例行任務。研究結果顯示,LLMs不僅提高了診斷質量,還促進了跨學科合作。未來應著重增強透明度和擴大應用範圍,確保遵守倫理和法律標準。 PubMed DOI

這項研究探討了一個專門的多模態生成式人工智慧模型在胸部X光片解讀上的影響,評估其診斷準確性和臨床價值。該模型基於42家醫院18年的X光片報告數據訓練,並在多個公共數據集上測試。 主要發現包括: - 模型對氣胸和皮下氣腫的檢測敏感度分別為95.3%和92.6%。 - 報告接受率:人工智慧模型70.5%、放射科醫師73.3%、GPT-4Vision僅29.6%。 - 人工智慧模型的報告獲得最高一致性和質量評分,顯示其可靠性優於GPT-4Vision。 總結來說,這項研究顯示專門的人工智慧模型在放射學診斷中具備顯著潛力。 PubMed DOI

這項研究評估了一種基於GPT的大型語言模型(LLM)在標註非結構化放射學報告的效果,並與現有的CheXbert和CheXpert進行比較,使用了MIMIC-CXR這個大型胸部X光數據集。結果顯示,LLM的平均F1分數為0.9014,超過CheXpert(0.8864),接近CheXbert(0.9047)。在處理較長、複雜的病理描述時,LLM表現尤為優異。整體來看,LLM是傳統BERT方法的有力替代,提供更好的上下文理解,並減少對特徵工程的需求。 PubMed DOI

大型基礎模型在生物醫學領域有潛力,但在臨床應用上面臨挑戰,如性能差距和高成本。本研究展示了一個開源的小型多模態模型,透過胸部X光影像生成診斷結果,解決放射學的問題。研究團隊訓練了697,000對影像-文本對,開發了專門的胸部X光編碼器,並與預訓練的語言模型整合。為了評估模型的準確性,團隊創建了CheXprompt,並用於基準測試,LLaVA-Rad模型表現優於一些大型模型。雖然尚未適合實時臨床使用,但這代表了在放射學中可臨床應用的進展。 PubMed DOI

這項研究評估大型語言模型(LLMs)自動生成CAD-RADS 2.0分數的能力,對於疾病描述和臨床決策非常重要。研究分析了200份心臟CT報告,使用了多種先進的LLMs,包括GPT-3.5、GPT-4o、Mistral 7b、Mixtral 8 × 7b和不同版本的Llama3。結果顯示,GPT-4o和Llama3 70b的準確率最高,分別為93%和92.5%。這些發現顯示,增強上下文學習的模型能有效生成CAD-RADS 2.0分數,提高心臟CT報告的效率與一致性,且開源模型在數據安全上也具優勢。 PubMed DOI

這項研究比較五款主流大型語言模型解讀胸部CT報告的能力,發現GPT-4表現最佳,尤其在選擇題上最準確。微調後的GPT-3.5-Turbo也有明顯進步。整體來說,選擇題比開放式問答更容易答對。不同疾病和器官系統的結果有差異。結果顯示,優化後的AI模型有助於提升胸部CT解讀,對外科手術規劃很有幫助。 PubMed DOI