原始文章

RadGPT 結合概念擷取和大型語言模型,能自動產生解釋和問答題,協助病人看懂放射科報告。研究顯示,AI 產生的內容多獲醫師好評,且無安全疑慮。LLM 產生的問題比傳統模板更優,這工具有助病人理解複雜醫療資訊,潛力十足。 PubMed DOI


站上相關主題文章列表

本研究探討大型語言模型(LLMs)在從放射科報告中提取額外影像檢查建議(RAIs)的有效性。研究回顧了250份報告,確認231份包含RAIs,並使用自然語言處理算法進行分析。結果顯示,GPT-4在提取RAI檢查方式、身體部位和時間框架方面的準確率均優於GPT-3.5,顯示出LLMs在確保影像檢查建議及時完成的潛力,可能有助於減少診斷延遲。 PubMed DOI

這項研究探討大型語言模型(LLMs)生成的簡化放射學報告對腫瘤科病人的影響,分為兩個階段進行。第一階段測試五種LLMs,結果顯示Claude Opus-Prompt 3表現稍佳。第二階段中,100名病人分為兩組,一組收到原始報告,另一組則收到簡化版本。調查結果顯示,簡化報告的病人對疾病理解更好,對醫療狀況感到更有信心。雖然少數報告需修正,但顯示LLMs能有效簡化醫療資訊,仍需人類監督。整體而言,研究建議LLMs可增強病人對健康資訊的理解。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動生成腫瘤影像檢查申請的臨床歷史的應用,資料來自207名接受CT掃描的癌症患者。研究顯示,GPT-4在提取關鍵腫瘤學參數方面表現優異,F1分數達0.983。LLM生成的歷史中,主要診斷、急性症狀及相關手術的出現頻率均高於原始歷史,且差異具統計意義。放射科醫生更偏好LLM生成的歷史,認為其提供更完整的解讀,降低傷害風險。總之,LLM能準確創建全面的腫瘤影像臨床歷史,受到醫生青睞。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

這項研究發現,用GPT-4簡化腫瘤放射科報告後,病患閱讀更快、理解更好,醫病溝通也更順暢。結果顯示,像GPT-4這類AI工具,能有效提升醫療溝通品質,幫助病患更容易取得和理解複雜醫療資訊,進而改善治療成效。 PubMed DOI

PRECISE 框架用 GPT-4 把放射科報告改寫成六年級程度,讓病人更容易看懂。研究顯示,這方法不但提升報告的可讀性,醫師和一般人也都覺得內容清楚又可靠。這有助於病人了解自己的檢查結果,推動以病人為主的醫療,而且不會增加醫師的工作量。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

這項研究用 GPT-4(透過 Azure)把荷蘭文放射科報告簡化成 B1 等級,讓病患更容易看懂。經過專家審查後,AI 生成的報告不只正確,病患也更滿意、理解度更高,大多數人都比較喜歡簡化版。這方法能幫助醫病溝通,減輕醫師負擔,也讓病患能做出更有根據的決定。 PubMed DOI

這篇研究發現,GPT-4o-mini和ERNIE-4.0-Turbo-8K在根據放射科報告給肺結節追蹤建議時,準確率都超過九成,表現和專業醫師差不多,錯誤建議也很少。雖然這些AI有潛力協助放射科決策,但實際應用前還是要嚴格驗證和監督,確保病人安全。 PubMed DOI

這項研究發現,像GPT-4這類大型語言模型能把放射科醫師的摘要快速轉成完整CT報告,速度比傳統方式快,品質也差不多。雖然大多數錯誤跟模板有關,重大臨床錯誤很少見,但還是建議要有人工審查,確保報告正確無誤。 PubMed DOI