原始文章

RadGPT 結合概念擷取和大型語言模型,能自動產生解釋和問答題,協助病人看懂放射科報告。研究顯示,AI 產生的內容多獲醫師好評,且無安全疑慮。LLM 產生的問題比傳統模板更優,這工具有助病人理解複雜醫療資訊,潛力十足。 PubMed DOI


站上相關主題文章列表

隨著患者能更直接獲取醫療紀錄,放射科報告中的醫學術語卻常讓人困惑。為了解決這個問題,我們提出利用大型語言模型(LLM)自動生成更易懂的報告翻譯。我們在100份去識別化的神經放射科報告上進行測試,並在不同閱讀水平上生成翻譯。結果顯示,翻譯的準確率和可讀性均優於傳統方法,特別是在第八年級閱讀水平上,準確率分別達到88%和93%。這種方法不僅增強了患者的理解,也不會顯著增加醫生的工作負擔。 PubMed DOI

這項研究評估了GPT-4在創建針對患者友好的介入放射學教育材料的能力。研究人員回顧了10個程序,並生成通俗易懂的說明,這些說明由臨床醫師和非臨床評估者評估。結果顯示,大多數說明被認為適當,特定程序如腹腔穿刺和透析導管放置獲得高評價,但動脈栓塞的說明則評價較低。可讀性評估顯示,GPT-4的說明更易理解,顯示其在提升健康素養和患者教育方面的潛力。 PubMed DOI

這項研究評估了病人教育材料的可讀性,並探討了生成式人工智慧工具(如ChatGPT-4和Google Gemini)如何將這些材料簡化到六年級的閱讀水平。分析了七份來自主要放射學團體的文件,原始材料的平均閱讀水平為11.72。經過簡化後,ChatGPT的閱讀水平降至7.32,Gemini則為6.55。ChatGPT減少了15%的字數,保留95%的資訊,而Gemini減少33%,保留68%。三位放射科醫師評估後認為,ChatGPT在適當性、清晰度和相關性上表現更佳。研究指出,生成式人工智慧能顯著改善病人教育材料的可讀性,但專家審查仍然很重要。 PubMed DOI

這項研究探討大型語言模型(LLMs)生成的簡化放射學報告對腫瘤科病人的影響,分為兩個階段進行。第一階段測試五種LLMs,結果顯示Claude Opus-Prompt 3表現稍佳。第二階段中,100名病人分為兩組,一組收到原始報告,另一組則收到簡化版本。調查結果顯示,簡化報告的病人對疾病理解更好,對醫療狀況感到更有信心。雖然少數報告需修正,但顯示LLMs能有效簡化醫療資訊,仍需人類監督。整體而言,研究建議LLMs可增強病人對健康資訊的理解。 PubMed DOI

最近大型語言模型(LLMs)如GPT-3.5和GPT-4在醫療領域的應用引起關注。本研究比較了這些模型在註解放射學報告及生成胸部CT印象的表現,旨在協助醫療專業人員處理日常文檔任務。研究使用了上下文學習和檢索增強生成等方法,並透過多種指標進行評估。結果顯示,GPT-4在性能上優於GPT-3.5,且提示設計對結果影響顯著。研究建議在醫療實踐中整合這些先進模型,以提升文檔效率與準確性。 PubMed DOI

這項研究發現,用GPT-4簡化腫瘤放射科報告後,病患閱讀更快、理解更好,醫病溝通也更順暢。結果顯示,像GPT-4這類AI工具,能有效提升醫療溝通品質,幫助病患更容易取得和理解複雜醫療資訊,進而改善治療成效。 PubMed DOI

PRECISE 框架用 GPT-4 把放射科報告改寫成六年級程度,讓病人更容易看懂。研究顯示,這方法不但提升報告的可讀性,醫師和一般人也都覺得內容清楚又可靠。這有助於病人了解自己的檢查結果,推動以病人為主的醫療,而且不會增加醫師的工作量。 PubMed DOI

一項針對64位骨科病患的研究發現,用ChatGPT-4翻譯MRI報告能讓病患更容易看懂內容,理解度提升20%,有87.5%的人覺得AI翻譯更清楚。不過,大家對傳統報告的信任感還是稍高。AI翻譯雖然有幫助,但還是需要醫師把關,確保資訊正確。 PubMed DOI

這項研究用 GPT-4(透過 Azure)把荷蘭文放射科報告簡化成 B1 等級,讓病患更容易看懂。經過專家審查後,AI 生成的報告不只正確,病患也更滿意、理解度更高,大多數人都比較喜歡簡化版。這方法能幫助醫病溝通,減輕醫師負擔,也讓病患能做出更有根據的決定。 PubMed DOI

這項研究發現,像GPT-4這類大型語言模型能把放射科醫師的摘要快速轉成完整CT報告,速度比傳統方式快,品質也差不多。雖然大多數錯誤跟模板有關,重大臨床錯誤很少見,但還是建議要有人工審查,確保報告正確無誤。 PubMed DOI