原始文章

這項研究探討了使用人工智慧,特別是ChatGPT,來生成接受選擇性扁桃腺切除手術患者的出院信,並與耳鼻喉科醫生撰寫的信件進行比較。家長根據醫療資訊的品質、可讀性和長度評估這些信件。結果顯示,AI生成的信件在醫療資訊品質上明顯優於醫生撰寫的信件,且更易閱讀。參與者辨識AI生成信件的成功率為50%。這些發現顯示,人工智慧在醫療領域的應用前景良好。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧,特別是像ChatGPT這樣的大型語言模型(LLMs),如何為從急診部轉至家庭的病人創建個性化的出院指示。研究發現,傳統出院指示常常耗時且缺乏個性化,因此使用GPT-4生成了五個虛構急診案例的出院指示。調查結果顯示,受訪者對GPT生成的指示評價較高,特別是在回診注意事項上,顯示LLMs能提升出院指示的清晰度和相關性,並改善醫療文檔流程,減輕醫療人員負擔。 PubMed DOI

這項研究探討如何利用GPT-4將複雜的出院信轉換成更易懂的版本,讓病人更容易理解。出院信通常包含重要的健康資訊,但常常用醫學術語,讓病人感到困惑。研究中,GPT-4成功涵蓋了78%的關鍵學習目標,但仍有15%的重要資訊被遺漏,特別是預防併發症的部分。雖然轉換後的信件可讀性提高,醫學術語減少,但仍有關鍵安全資訊缺失。研究建議改進提示,以增強資訊的完整性,顯示AI在病人溝通上的潛力與發展空間。 PubMed DOI

醫院出院摘要對醫療人員溝通非常重要,因為它記錄病人在住院期間的情況並規劃後續治療。本研究探討了ChatGPT在生成出院摘要的有效性,針對三種住院情境進行測試。結果顯示,ChatGPT能有效結構化出院摘要,清晰總結關鍵問題和後續計畫。雖然它在文檔生成上顯示潛力,但仍需仔細審查以確保準確性。未來可進一步研究AI生成的摘要是否能幫助初級醫師更有效地學習和撰寫。 PubMed DOI

這項研究比較了人類撰寫的神經外科文章與ChatGPT生成的文章,評估其品質差異。研究選取10篇文章,5篇由人類撰寫,5篇由ChatGPT撰寫,並由專家根據整體印象、可讀性等進行評估。結果顯示,兩者在整體品質上無顯著差異,但ChatGPT的可讀性較高。專家識別作者的準確率為61%,偏好幾乎相等。結論指出,ChatGPT能產出與人類相當的文章,且可讀性更佳,顯示其在學術寫作中的潛在價值。 PubMed DOI

這項研究評估了四個人工智慧模型在生成脊椎手術病患教育材料的有效性,主要針對腰椎椎間盤切除術、脊椎融合術和減壓椎板切除術。結果顯示,DeepSeek-R1 的可讀性最佳,Flesch-Kincaid 分數介於 7.2 到 9.0 之間,而 ChatGPT-o3 的可讀性最低,超過 10.4。所有模型的資訊品質均低於 60,顯示出「公平」的品質,主要因缺乏參考資料。研究強調改善引用實踐及個性化 AI 生成健康資訊的必要性,未來應整合互動元素和病患反饋,以提升準確性和可及性。 PubMed DOI

這項研究用ChatGPT/GPT-4和翻譯軟體,快速製作三種常見急診主訴的AI出院衛教手冊。八位急診醫師給予高分評價,但部分內容還需修正。手冊可讀性約在高中到大學程度,可能有高估。AI能有效產出衛教資料,但仍需人工審核,未來還要研究對病人的實際幫助及擴展應用。 PubMed DOI

這項研究發現,ChatGPT在模擬腫瘤科病例下,能用結構化提示產生高品質的醫師和病人信件,內容正確、完整又相關,且沒有安全疑慮。病人信件也寫得清楚易懂,適合一般人閱讀。雖然偶爾有小錯誤,但多數人願意接受AI信件。建議未來可和真人信件進一步比較。 PubMed DOI

研究發現,大型語言模型(LLM)生成的出院摘要,品質和醫師寫的差不多,受歡迎程度也相近。LLM寫的內容比較精簡、結構清楚,但資訊沒那麼完整,錯誤率也稍高。不過這些錯誤通常不會造成傷害。只要有醫師審核,LLM生成的摘要很有機會成為醫院的好幫手。 PubMed DOI

這項研究發現,用ChatGPT簡化放射科報告後,病人更容易看懂內容,覺得資訊更清楚、語氣更親切,也更有信心和醫師討論、參與決策。AI工具有助於讓醫療資訊更貼近病人需求,但還需要更多研究來確保所有人都適用且正確。 PubMed DOI

這項研究發現,不論是家長還是醫師,都認為 ChatGPT-4o 生成的小兒外科手術同意書比醫師自己寫的更好、更受歡迎。結果顯示,AI 有助於提升醫療同意書的品質和家長的滿意度。 PubMed DOI