原始文章

這項研究評估了GPT-4在總結介入放射學報告的效果,旨在幫助外行人理解並翻譯醫學文本。研究總結了200份報告,並用Flesch-Kincaid閱讀水平和Flesch閱讀容易度分數來評估可讀性。結果顯示,總結後的可讀性明顯改善,外行人的理解分數也從2.5提升至4.3。雖然翻譯成其他語言後誤資訊略有增加,但關鍵錯誤資訊並未顯著上升。整體而言,GPT-4在提升報告可讀性和病人溝通方面展現了潛力。 PubMed DOI


站上相關主題文章列表

研究比較GPT-3和GPT-4在放射學病人教育上的效果,結果顯示兩者都提供準確的答案,但GPT-4稍微更優。建議這些模型可用於放射學病人教育,但也要留意可能的限制。 PubMed DOI

研究使用ChatGPT-3.5簡化放射學報告,讓醫護人員和病人更易懂。測試九份報告,得出七個問題,由八位放射科醫師評估。ChatGPT-3.5成功簡化報告,易懂又完整。但印地語翻譯不適合病人溝通。總之,ChatGPT-3.5有助於改善醫療溝通和決策。 PubMed DOI

研究發現,使用GPT-4將心血管磁共振(CMR)報告轉換為普通用語後,患者更易理解。放射科醫師高度評價GPT-4報告的正確性、完整性,並認為其無潛在危害。GPT-4有效簡化複雜CMR報告,讓患者更易理解,同時保持精確性和完整性。 PubMed DOI

這項研究評估了GPT-4在創建針對患者友好的介入放射學教育材料的能力。研究人員回顧了10個程序,並生成通俗易懂的說明,這些說明由臨床醫師和非臨床評估者評估。結果顯示,大多數說明被認為適當,特定程序如腹腔穿刺和透析導管放置獲得高評價,但動脈栓塞的說明則評價較低。可讀性評估顯示,GPT-4的說明更易理解,顯示其在提升健康素養和患者教育方面的潛力。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在簡化介入放射學(IR)報告的表現,重點在質性和量性指標。GPT-4和Claude-3-Opus在質性評估中表現最佳,錯誤率最低,特別是在內容和信任方面。量性評估顯示,GPT-4在可讀性指標上也優於其他模型。研究強調簡化IR報告對病人理解和臨床決策的重要性,並指出所有模型仍需改進以減少錯誤。 PubMed DOI

這項研究探討了使用OpenAI的GPT-4o自動將放射科報告轉錄為英文和德文的語音轉文字技術。三位不同經驗的讀者在ChatGPT iOS應用程式中,口述了各100份合成報告。評估重點包括錯誤類型、嚴重程度及修正時間,還有語意相似度指標(BERTScore和ROUGE)。結果顯示兩種語言的錯誤率相似,主要是輕微的技術性或排版錯誤。德文的BERTScore較高,ROUGE則無顯著差異。研究顯示GPT-4o能有效轉錄報告,未來可與其他口述工具比較其表現與成本效益。 PubMed DOI

這項研究探討介入放射科醫師對 ChatGPT-4 在提供知情同意方面的看法。醫師評估了其準確性、全面性、可讀性、對話語氣和舒適度,結果顯示準確性平均為 4.29,全面性 3.85,可讀性 4.15,對話語氣 4.24,舒適度 3.82。大部分醫師認為輸出內容足夠,但經驗豐富的醫師對評價較低。整體來看,雖然 ChatGPT-4 的內容通常準確且易懂,但在全面性上仍有不足,醫師在使用時需謹慎。 PubMed DOI

這項研究評估了ChatGPT-4在簡化醫學文獻的效果,特別是神經學和神經外科的摘要及病人教育材料,將其簡化到五年級的閱讀水平。研究轉換了100篇摘要和340份病人教育材料,結果顯示可讀性顯著提升,摘要從12年級降至5年級,病人教育材料從13年級降至5年級。內容保留方面,摘要和病人教育材料的相似度都很高,但對於較長文本的相關性較弱。總體來說,GPT-4.0有效改善醫學文本的可讀性,但仍需專家驗證以確保準確性。 PubMed DOI

這項研究評估了GPT-4在分析來自美國、哥倫比亞、新加坡和義大利的醫療筆記的有效性。研究收集了56份去識別化的醫療筆記,75%為英語,13%為義大利語,13%為西班牙語。每份筆記附有14個問題,GPT-4的回答由兩位獨立醫師驗證。結果顯示,GPT-4的回答在79%的案例中獲得一致認同,西班牙語(88%)和義大利語(84%)的認同率高於英語(77%)。這顯示GPT-4在多語言醫療筆記分析中具備潛力,能提升臨床工作流程。 PubMed DOI

這項研究探討了GPT-4在放射科報告中檢測和修正錯誤的潛力,特別針對頭部CT掃描。隨著放射科醫師的工作壓力增加,GPT-4在錯誤檢測方面表現優異,解釋性錯誤敏感度達84%,事實性錯誤敏感度達89%。相比之下,人類讀者的表現較差,檢查時間也較長。雖然GPT-4在識別錯誤時有些假陽性,但仍顯示出其在減輕醫師負擔和提升準確度的潛力,值得在臨床實踐中進一步探索。 PubMed DOI