原始文章

這項研究推出 LLMonFHIR 行動 App,運用大型語言模型,幫助慢性心血管病人用多種語言、不同難度,甚至語音方式,查詢自己的電子健康紀錄。初步測試顯示,醫師認為 App 回覆正確、好懂又實用。雖然在健康摘要和檢驗數據查詢上還有改進空間,但 LLMonFHIR 有助於解決語言和健康素養障礙,讓病人更容易掌握自己的健康資訊。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在臨床實踐中有潛力提升病人教育與賦權,提供更個人化的醫療服務。然而,目前對其在病人照護中的應用資訊仍不夠完整。本系統性回顧分析了2022至2023年間的89項相關研究,主要集中於GPT-3.5和GPT-4,應用於回答醫療問題、生成病人資訊等。研究指出設計和輸出方面的限制,包括缺乏針對醫療的優化及數據透明度等問題。此回顧為LLMs在醫療環境中的應用與評估提供了基礎框架。 PubMed DOI

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI

大型語言模型(LLMs)在人工智慧領域是一大突破,能改變醫療溝通、研究和決策。它們能快速分享健康資訊,打破語言障礙,但整合進醫療系統時也面臨挑戰,如數據偏見、隱私問題及數位素養差異。儘管如此,LLMs的分析能力可支持基於證據的醫療政策。為了發揮其潛力,需制定倫理指導方針、減少偏見策略,並確保全球醫療資源的公平獲取。妥善解決這些挑戰,LLMs有望改善全球健康結果,促進健康公平。 PubMed DOI

慢性病是全球主要死因,LLMs(像ChatGPT)在管理慢性病上有潛力,能提供準確、易懂的健康建議,幫助病人自我管理和獲得支持。專業型LLMs表現更好,但目前證據有限,還有隱私、語言和診斷等挑戰。臨床應用還在初期,未來需加強資料安全、專業化和與穿戴裝置整合。 PubMed DOI

這項研究發現,心肌梗塞患者及家屬使用 iflyhealth AI 健康紀錄 App 時,覺得個人化資訊和即時建議很有幫助,但常遇到操作困難、數位素養不足和隱私疑慮。沒用過的人多半覺得介面太複雜或跟自己無關。iflyhealth 有助於復原,但還需改善易用性和隱私問題,才能吸引更多人使用。 PubMed DOI

大型語言模型正快速改變醫療現場,不只協助診斷、提升衛教,也讓臨床流程更有效率。導入時要重視好用的介面、醫師訓練、AI與醫護合作,並落實隱私與倫理規範。未來會朝多模態、強化安全及結合機器人發展,但最重要的還是以病患安全和人本設計為核心,輔助醫療專業而非取代。 PubMed DOI

這項研究用多個大型語言模型(像是GPT-4、Claude 3.5等)來自動化產生EMS對話的電子病歷,結果比單一模型更準確,F1分數最高到0.81。專家也認為這系統能減輕紀錄負擔,但偶爾還是會誤解醫療情境。這是首次針對急診醫療紀錄自動化做系統性評估,展現未來應用潛力。 PubMed DOI

這項研究分析超過四百萬則病患與醫療人員的訊息,發現用大型語言模型(LLMs)協助處理臨床訊息有潛力,但因訊息多半口語且問題常隱含,偵測難度高。研究也發現有四分之一的病患問題沒被回覆,凸顯準確辨識問題的重要性,並建議將LLMs納入醫療訊息流程。 PubMed

這項研究發現,用大型語言模型自動產生心臟衰竭住院摘要,能幫助部分醫師更快回答問題,且準確率沒變。大多數醫師認為這樣能省時間,也願意使用,但摘要格式要配合個人需求。整體來說,LLM有助提升醫師效率,但摘要內容還需客製化。 PubMed DOI

這項研究發現,Llama 3等大型語言模型能準確從電子病歷的臨床紀錄中提取並標準化病人行動能力資訊。經過多家醫院600份紀錄測試,模型在提取和分類上表現優異,錯誤也多屬臨床可接受範圍。本地端運行模型更能保障隱私與一致性,顯示LLMs有助於精準醫療與研究發展。 PubMed DOI