原始文章

這項研究發現,Llama 3等大型語言模型能準確從電子病歷的臨床紀錄中提取並標準化病人行動能力資訊。經過多家醫院600份紀錄測試,模型在提取和分類上表現優異,錯誤也多屬臨床可接受範圍。本地端運行模型更能保障隱私與一致性,顯示LLMs有助於精準醫療與研究發展。 PubMed DOI


站上相關主題文章列表

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI

這項研究用大型語言模型自動從電子病歷抓出智力及發展障礙、腦性麻痺患者的語言和行走能力,準確率很高(行走能力F1值超過0.9)。這方法能減少人工評估負擔、省成本,且適用不同醫院和紀錄格式。不過,還需要更多研究才能擴展到其他族群和更細的功能指標。 PubMed DOI

這項研究發現,經過微調的大型語言模型(LLM)能準確分析電子病歷文字,自動判斷中風預後的mRS分數。LLM預測七個mRS等級的準確率達77%,判斷功能獨立與否的準確率更高達92%。顯示LLM有機會協助臨床與研究自動化mRS評估。 PubMed DOI

這項研究用大型語言模型(像RoBERTa和PubMedBERT)分析麻醉門診紀錄,成功辨識出病人術前的虛弱狀態,不論用哪種虛弱定義,模型表現都很準確。結果證明,LLM能有效從日常臨床紀錄中抓出像虛弱這種複雜的健康問題。 PubMed DOI

這項研究推出 LLMonFHIR 行動 App,運用大型語言模型,幫助慢性心血管病人用多種語言、不同難度,甚至語音方式,查詢自己的電子健康紀錄。初步測試顯示,醫師認為 App 回覆正確、好懂又實用。雖然在健康摘要和檢驗數據查詢上還有改進空間,但 LLMonFHIR 有助於解決語言和健康素養障礙,讓病人更容易掌握自己的健康資訊。 PubMed DOI

這篇研究針對電子病歷中難以提取健康社會決定因素(SDoH)問題,從四家醫院建立標註資料集,涵蓋21種SDoH,並用多種模型(包含大型語言模型)進行偵測。經過指令微調的LLMs表現最佳,F1值都很高,但模型跨醫院應用仍有困難。訓練好的模型已公開在GitHub。 PubMed DOI

這項研究用多個大型語言模型(像是GPT-4、Claude 3.5等)來自動化產生EMS對話的電子病歷,結果比單一模型更準確,F1分數最高到0.81。專家也認為這系統能減輕紀錄負擔,但偶爾還是會誤解醫療情境。這是首次針對急診醫療紀錄自動化做系統性評估,展現未來應用潛力。 PubMed DOI

**重點摘要:** 這項研究測試了兩個大型語言模型(LLMs),用來從真實的臨床紀錄自動產生出院摘要,並用一個經過驗證的評分指標來評分他們的結果。兩個模型的表現差不多,顯示LLMs有潛力協助醫師準備出院摘要,進而減輕臨床醫師的行政工作負擔。 PubMed DOI

研究團隊開發了一套經微調的大型語言模型,能自動從電子病歷的臨床紀錄中擷取阿茲海默症及相關失智症的7大症狀,準確度(AUROC)高達0.97-0.99,優於傳統方法。這些症狀不僅能預測失智症診斷,還和腦部MRI結果有關,有助提升診斷準確率並推動相關研究。 PubMed DOI

這項研究發現,用大型語言模型自動產生心臟衰竭住院摘要,能幫助部分醫師更快回答問題,且準確率沒變。大多數醫師認為這樣能省時間,也願意使用,但摘要格式要配合個人需求。整體來說,LLM有助提升醫師效率,但摘要內容還需客製化。 PubMed DOI