原始文章

研究發現,先把每份臨床紀錄各自摘要,再合併生成出院摘要(先摘要再提示),比直接合併所有紀錄來得更完整、正確,內容也不會變冗長。這種方法有望協助自動化出院摘要撰寫,減輕醫師工作壓力。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs),特別是GPT-4,如何生成符合病人和醫師需求的醫療建議回應。研究團隊透過人員參與的迭代過程,優化提示,提升回應質量。經過三次迭代後,臨床醫師對草擬回應的接受度從62%提升至84%,且74%的回應被評為「有幫助」。病人也認為優化後的回應在語氣和質量上更佳,76%的病人無法分辨人類與LLM生成的回應。研究顯示,根據醫師和病人的反饋來精煉提示,能有效生成有用的醫療建議。 PubMed DOI

這項研究探討如何利用GPT-4將複雜的出院信轉換成更易懂的版本,讓病人更容易理解。出院信通常包含重要的健康資訊,但常常用醫學術語,讓病人感到困惑。研究中,GPT-4成功涵蓋了78%的關鍵學習目標,但仍有15%的重要資訊被遺漏,特別是預防併發症的部分。雖然轉換後的信件可讀性提高,醫學術語減少,但仍有關鍵安全資訊缺失。研究建議改進提示,以增強資訊的完整性,顯示AI在病人溝通上的潛力與發展空間。 PubMed DOI

醫院出院摘要對醫療人員溝通非常重要,因為它記錄病人在住院期間的情況並規劃後續治療。本研究探討了ChatGPT在生成出院摘要的有效性,針對三種住院情境進行測試。結果顯示,ChatGPT能有效結構化出院摘要,清晰總結關鍵問題和後續計畫。雖然它在文檔生成上顯示潛力,但仍需仔細審查以確保準確性。未來可進一步研究AI生成的摘要是否能幫助初級醫師更有效地學習和撰寫。 PubMed DOI

這項研究探討大型語言模型(LLMs)在總結患者在網上論壇和健康社群分享經驗的有效性。研究評估了Flan-T5、GPT、GPT-3和GPT-3.5等模型,並測試不同的提示策略。結果顯示,GPT-3.5在零-shot提示中表現最佳,並在3-shot設置中結合方向性提示時達到最佳效果。手動評估也確認了其摘要的準確性。雖然研究顯示LLMs能提供有價值的質性見解,但也存在數據樣本小和手動摘要僅由一位標註者創建的限制。 PubMed DOI

研究發現,大型語言模型(LLM)生成的出院摘要,品質和醫師寫的差不多,受歡迎程度也相近。LLM寫的內容比較精簡、結構清楚,但資訊沒那麼完整,錯誤率也稍高。不過這些錯誤通常不會造成傷害。只要有醫師審核,LLM生成的摘要很有機會成為醫院的好幫手。 PubMed DOI

這項研究用開源大型語言模型(像LLaMA3)自動產生德文出院摘要,並請醫師評估品質。結果顯示,AI生成的摘要資訊算完整,但常漏掉重要細節或出現錯誤,尤其在複雜病例時更明顯。研究也發現資料集太小、資料不全和模型德文醫學詞彙不足是主要挑戰,建議未來要用更多資料和微調模型,才能提升表現。 PubMed DOI

**重點摘要:** 這項研究測試了兩個大型語言模型(LLMs),用來從真實的臨床紀錄自動產生出院摘要,並用一個經過驗證的評分指標來評分他們的結果。兩個模型的表現差不多,顯示LLMs有潛力協助醫師準備出院摘要,進而減輕臨床醫師的行政工作負擔。 PubMed DOI

這項研究發現,GPT-4o能用簡單易懂的語言重寫心臟科出院摘要,並加入生活建議,讓病人更容易理解。醫療專家認為AI產出的內容正確又安全,但建議較不個人化。未來還需更多研究,才能確保實際應用的安全性。 PubMed DOI

這項研究發現,用結構化提示雖然能讓八款大型語言模型產生更貼近臨床需求的摘要,但也更容易出現錯誤和偏誤。沒有任何模型能穩定產出臨床可用的摘要,因此各機構還是要自行把關,確保摘要內容正確無誤。 PubMed DOI

**重點摘要:** 這項研究顯示,使用 prompt-tuning 搭配大型臨床語言模型(GatorTronGPT)可以有效地摘要醫師與病患之間的對話,不僅表現優於以往經過 fine-tune 的模型,而且更有效率,因為不需要更新模型的參數。 PubMed