原始文章

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI


站上相關主題文章列表

社會健康決定因素(SDoH)對病人的結果很重要,但常常沒有完整記錄在電子健康紀錄(EHRs)中。大型語言模型(LLMs)可以幫助從EHRs中提取SDoH數據。研究專注於從EHR敘述文本中提取六個SDoH類別。最佳模型是Flan-T5 XL,對任何SDoH提及進行微調,以及Flan-T5 XXL,對不良SDoH提及進行微調。合成數據提高了性能,尤其對較小的模型。這些模型在零次和少次訓練情況下優於ChatGPT模型,並在添加種族/族裔和性別描述詞時表現較少偏見。這些模型識別出比ICD-10代碼更多具有不良SDoH的病人,突顯了它們在改善有關SDoH的真實世界證據並識別需要支持的病人方面的潛力。 PubMed DOI

社會健康決定因素(SDoH)對健康影響很大,其中住房穩定性至關重要。電子健康記錄(EHRs)中包含有用的SDoH資訊,但常為非結構化,需要透過自然語言處理(NLP)進行分析。新的NLP技術如GPT-4能有效辨識住房不穩定性,雖然在偵測上有高召回率,但精確度較低。LLMs提供擴展且成本效益高的解決方案,同時召回率也較高。結合LLMs和人工審查可提高數據分析效率,支持醫療系統提供更主動的病人護理。 PubMed DOI

研究專注於從電子健康記錄中提取社會健康決定因素,以改善健康公平。研究建立跨機構數據集,開發分類模型,包括大型語言模型,從不同醫療機構的臨床註釋中檢測SDoH因素。研究發現不同病人群、註釋類型和醫院有不同的SDoH記錄實踐和標籤分佈。LLM在辨識SDoH因素方面表現最佳,但在跨數據集泛化上仍有挑戰。為促進合作,研究提供了PhysioNet存儲庫上的註釋數據集和模型訪問權。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在電腦媒介臨床諮詢中的應用潛力,涉及醫生、電子健康紀錄(EHR)系統和病人。儘管自然語言處理(NLP)已有進展,但EHR中的自由文本數據尚未被充分利用。LLMs擅長理解和生成自然語言,能有效處理臨床對話。論文建議透過針對特定任務的預訓練和微調,醫療提供者可利用自由文本來識別病人安全問題、支持診斷,並改善臨床互動。作者認為,微調的LLMs結合提示工程,能提升初級護理諮詢的效率與效果。 PubMed DOI

這項研究強調在醫療照護中評估健康社會決定因素(SDoH)的重要性,以改善病患照護並縮小健康差距。研究探討了電子健康紀錄(EHRs)中SDoH數據不足的挑戰,主要因為缺乏標準化的診斷代碼。研究團隊使用大型語言模型(如BERT和RoBERTa)來分類無家可歸、食物不安全和家庭暴力等SDoH概念,並創建合成訓練數據集。結果顯示,這些模型能有效提取SDoH資訊,幫助醫療提供者識別高風險病患,進而實施針對性干預,支持減少健康差距的努力。 PubMed DOI

這項研究探討了機器學習在電子健康紀錄中識別社會和行為健康決定因素的效果。研究人員分析了MIMIC-III數據集中的超過200萬份臨床筆記,使用潛在語義索引(LSI)和GPT模型來預測SBDH類別。結果顯示,LSI的正向預測值超過83%,在多個SBDH類別的預測準確性上優於ICD-9編碼。雖然GPT-4表現稍佳,但LSI在成本效益和處理文件數量上更具優勢。整體而言,LSI是一種有效且實用的方法,適合應用於健康系統。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在識別孕婦臨床筆記中的住房不安全性方面的效果。主要發現顯示,GPT-4在識別住房不穩定案例上表現優於GPT-3.5,回憶率達0.924,超過人類抽取者的0.702。雖然GPT-4的精確度低於人類,但在去識別筆記中略有提升。研究建議,雖然手動抽取準確性較高,LLMs如GPT-4提供了可擴展且具成本效益的選擇,適合半自動化抽取,但仍需人類審查以避免錯誤解釋。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在從電子健康紀錄中提取數據的表現,使用了50份合成醫療筆記。共測試了18個LLM,並與基準模型RoBERTa比較,涵蓋多個任務。表現最佳的模型包括Claude 3.0 Opus、GPT 4等,準確率超過0.98,明顯優於RoBERTa的0.742。這些模型在多次測試中也展現出一致性,顯示出能有效協助數據提取,減輕醫療人員的負擔。不過,仍需用真實數據進一步驗證其實際應用效果。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分類與心理健康相關的電子健康紀錄(EHRs)術語的有效性,並與臨床專家的判斷進行比較。研究使用了來自美國50多家醫療機構的數據,分析了因心理健康問題入院的病人EHR。結果顯示,LLM與臨床醫生在術語的廣泛分類上達成高一致性(κ=0.77),但在具體的心理健康(κ=0.62)和身體健康術語(κ=0.69)上則較低,顯示出LLM的變異性。儘管如此,研究強調了LLM在自動化編碼和預測建模中的潛力。 PubMed DOI

SBDH-Reader是一個創新的工具,利用大型語言模型從醫療筆記中提取社會和行為健康決定因素(SBDH)數據。這個工具基於7,225份MIMIC-III數據庫的醫療筆記訓練,並在UT Southwestern Medical Center的971份病人筆記上測試,專注於就業、住房、婚姻關係和物質使用等六個類別。性能指標顯示,SBDH-Reader在各類別中取得了0.85到0.98的宏觀平均F1分數,特別是在識別不良屬性方面表現優異。總體而言,這個工具能有效提升臨床研究和病人照護的數據提取能力。 PubMed DOI