原始文章

這項研究探討生成式人工智慧,特別是像ChatGPT這樣的大型語言模型(LLMs),如何為從急診部轉至家庭的病人創建個性化的出院指示。研究發現,傳統出院指示常常耗時且缺乏個性化,因此使用GPT-4生成了五個虛構急診案例的出院指示。調查結果顯示,受訪者對GPT生成的指示評價較高,特別是在回診注意事項上,顯示LLMs能提升出院指示的清晰度和相關性,並改善醫療文檔流程,減輕醫療人員負擔。 PubMed DOI


站上相關主題文章列表

這項研究探討了可獲得的醫療資訊對患者的重要性,並評估了兩個AI工具,ChatGPT和Google Gemini,針對特定醫療狀況(如深靜脈血栓、壓瘡和痔瘡)的可理解性。結果顯示,ChatGPT的內容需要較高的教育水平才能理解,且其回應與現有線上資訊相似度較高。雖然兩者在易讀性和可靠性上有差異,但統計分析未能證明哪一個工具在資訊質量上優於另一個。 PubMed DOI

這項研究探討如何利用GPT-4將複雜的出院信轉換成更易懂的版本,讓病人更容易理解。出院信通常包含重要的健康資訊,但常常用醫學術語,讓病人感到困惑。研究中,GPT-4成功涵蓋了78%的關鍵學習目標,但仍有15%的重要資訊被遺漏,特別是預防併發症的部分。雖然轉換後的信件可讀性提高,醫學術語減少,但仍有關鍵安全資訊缺失。研究建議改進提示,以增強資訊的完整性,顯示AI在病人溝通上的潛力與發展空間。 PubMed DOI

醫院出院摘要對醫療人員溝通非常重要,因為它記錄病人在住院期間的情況並規劃後續治療。本研究探討了ChatGPT在生成出院摘要的有效性,針對三種住院情境進行測試。結果顯示,ChatGPT能有效結構化出院摘要,清晰總結關鍵問題和後續計畫。雖然它在文檔生成上顯示潛力,但仍需仔細審查以確保準確性。未來可進一步研究AI生成的摘要是否能幫助初級醫師更有效地學習和撰寫。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這項研究探討了使用人工智慧,特別是ChatGPT,來生成接受選擇性扁桃腺切除手術患者的出院信,並與耳鼻喉科醫生撰寫的信件進行比較。家長根據醫療資訊的品質、可讀性和長度評估這些信件。結果顯示,AI生成的信件在醫療資訊品質上明顯優於醫生撰寫的信件,且更易閱讀。參與者辨識AI生成信件的成功率為50%。這些發現顯示,人工智慧在醫療領域的應用前景良好。 PubMed DOI

這項研究探討大型語言模型(LLMs)在總結患者在網上論壇和健康社群分享經驗的有效性。研究評估了Flan-T5、GPT、GPT-3和GPT-3.5等模型,並測試不同的提示策略。結果顯示,GPT-3.5在零-shot提示中表現最佳,並在3-shot設置中結合方向性提示時達到最佳效果。手動評估也確認了其摘要的準確性。雖然研究顯示LLMs能提供有價值的質性見解,但也存在數據樣本小和手動摘要僅由一位標註者創建的限制。 PubMed DOI

這項研究用ChatGPT/GPT-4和翻譯軟體,快速製作三種常見急診主訴的AI出院衛教手冊。八位急診醫師給予高分評價,但部分內容還需修正。手冊可讀性約在高中到大學程度,可能有高估。AI能有效產出衛教資料,但仍需人工審核,未來還要研究對病人的實際幫助及擴展應用。 PubMed DOI

研究發現,大型語言模型(LLM)生成的出院摘要,品質和醫師寫的差不多,受歡迎程度也相近。LLM寫的內容比較精簡、結構清楚,但資訊沒那麼完整,錯誤率也稍高。不過這些錯誤通常不會造成傷害。只要有醫師審核,LLM生成的摘要很有機會成為醫院的好幫手。 PubMed DOI

這項研究用模擬病人測試ChatGPT(GPT-4o和GPT-4-Turbo)在急診分級和門診指引的表現。經過優化後,GPT-4-Turbo用MEWS分級達到100%準確率,優於GPT-4o(96.2%);GPT-4o在門診科別選擇也有92.6%高準確率,且情感回應更好。結果顯示,經設計的ChatGPT能有效協助急診分級與指引,但還需更多臨床驗證。 PubMed DOI

這項研究發現,GPT-4o能用簡單易懂的語言重寫心臟科出院摘要,並加入生活建議,讓病人更容易理解。醫療專家認為AI產出的內容正確又安全,但建議較不個人化。未來還需更多研究,才能確保實際應用的安全性。 PubMed DOI