原始文章

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI


站上相關主題文章列表

這項研究評估了多種大型語言模型(LLMs)在從電子健康紀錄中提取數據的表現,使用了50份合成醫療筆記。共測試了18個LLM,並與基準模型RoBERTa比較,涵蓋多個任務。表現最佳的模型包括Claude 3.0 Opus、GPT 4等,準確率超過0.98,明顯優於RoBERTa的0.742。這些模型在多次測試中也展現出一致性,顯示出能有效協助數據提取,減輕醫療人員的負擔。不過,仍需用真實數據進一步驗證其實際應用效果。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分類與心理健康相關的電子健康紀錄(EHRs)術語的有效性,並與臨床專家的判斷進行比較。研究使用了來自美國50多家醫療機構的數據,分析了因心理健康問題入院的病人EHR。結果顯示,LLM與臨床醫生在術語的廣泛分類上達成高一致性(κ=0.77),但在具體的心理健康(κ=0.62)和身體健康術語(κ=0.69)上則較低,顯示出LLM的變異性。儘管如此,研究強調了LLM在自動化編碼和預測建模中的潛力。 PubMed DOI

SBDH-Reader是一個創新的工具,利用大型語言模型從醫療筆記中提取社會和行為健康決定因素(SBDH)數據。這個工具基於7,225份MIMIC-III數據庫的醫療筆記訓練,並在UT Southwestern Medical Center的971份病人筆記上測試,專注於就業、住房、婚姻關係和物質使用等六個類別。性能指標顯示,SBDH-Reader在各類別中取得了0.85到0.98的宏觀平均F1分數,特別是在識別不良屬性方面表現優異。總體而言,這個工具能有效提升臨床研究和病人照護的數據提取能力。 PubMed DOI

這項研究開發了一種利用大型語言模型(LLMs)從電子健康紀錄(EHR)中識別健康狀況的策略,解決了手動標記的繁瑣問題。研究將2015年的心臟登記隊列與阿爾伯塔省的EHR系統結合,分析臨床筆記以檢測急性心肌梗塞、糖尿病和高血壓。結果顯示,LLM方法在敏感度和陰性預測值上優於傳統ICD代碼,且檢測趨勢穩定。這種方法有潛力提升EHR在即時疾病監測中的應用效率。 PubMed DOI

這項研究開發了一套用大型語言模型自動從電子病歷中萃取多重慢性病患者資料的系統,在中國1,225位患者資料測試下,簡單特徵準確度高達99.6%,複雜特徵也有94.4%。這方法大幅提升效率與可靠性,減少人工處理,但資訊格式標準化仍是挑戰,且系統具高度彈性,適合各種研究或政策需求。 PubMed DOI

這篇研究針對電子病歷中難以提取健康社會決定因素(SDoH)問題,從四家醫院建立標註資料集,涵蓋21種SDoH,並用多種模型(包含大型語言模型)進行偵測。經過指令微調的LLMs表現最佳,F1值都很高,但模型跨醫院應用仍有困難。訓練好的模型已公開在GitHub。 PubMed DOI

從電子健康紀錄擷取健康社會決定因素很難,因為資料多是非結構化且類別不均。作者把UMLS語意知識結合進大型語言模型,來產生更多訓練資料,特別補足資料較少的類別。這方法能提升模型擷取SDoH資訊的效果,並已在MIMIC-SDoH資料集上驗證有效。 PubMed

SDoH-GPT 是一套新方法,結合大型語言模型、少量範例學習和 XGBoost 分類器,能自動從醫療紀錄擷取健康社會決定因素。這大幅減少人工標註,省時又省錢,準確度也很高(Cohen’s kappa 0.92、AUROC 超過 0.90),已在三個資料集驗證,讓醫療界更容易運用 SDoH 資料。 PubMed DOI

這項研究發現,用大型語言模型自動產生心臟衰竭住院摘要,能幫助部分醫師更快回答問題,且準確率沒變。大多數醫師認為這樣能省時間,也願意使用,但摘要格式要配合個人需求。整體來說,LLM有助提升醫師效率,但摘要內容還需客製化。 PubMed DOI

大部分醫療紀錄都是非結構化,讓資料分析很困難。這項研究測試九種大型語言模型,能自動從兒科臨床報告擷取結構化資料。不論是商業還是開源模型,表現都很優秀,最好的模型辨識重要病患資訊的準確率超過九成。LLMs為醫療資料擷取提供靈活又準確的替代方案,有機會取代人工處理。 PubMed DOI