原始文章

這篇研究針對電子病歷中難以提取健康社會決定因素(SDoH)問題,從四家醫院建立標註資料集,涵蓋21種SDoH,並用多種模型(包含大型語言模型)進行偵測。經過指令微調的LLMs表現最佳,F1值都很高,但模型跨醫院應用仍有困難。訓練好的模型已公開在GitHub。 PubMed DOI


站上相關主題文章列表

這篇評論探討自然語言處理(NLP)在心理健康研究中的應用,特別是文本數據集和社會健康決定因素(SDOH)的整合。研究分析了1,768項來自PubMed、Scopus和CINAHL Complete的研究,發現臨床數據(42.8%)和社交媒體數據(33.7%)最為常見。抑鬱症和自殺是主要議題,但SDOH因素被低估,只有少數研究提及。此外,超過一半的研究未說明數據集的可獲取性。評論建議未來研究應重視SDOH,並透過共享數據集來提升關注度。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分類與心理健康相關的電子健康紀錄(EHRs)術語的有效性,並與臨床專家的判斷進行比較。研究使用了來自美國50多家醫療機構的數據,分析了因心理健康問題入院的病人EHR。結果顯示,LLM與臨床醫生在術語的廣泛分類上達成高一致性(κ=0.77),但在具體的心理健康(κ=0.62)和身體健康術語(κ=0.69)上則較低,顯示出LLM的變異性。儘管如此,研究強調了LLM在自動化編碼和預測建模中的潛力。 PubMed DOI

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI

SBDH-Reader是一個創新的工具,利用大型語言模型從醫療筆記中提取社會和行為健康決定因素(SBDH)數據。這個工具基於7,225份MIMIC-III數據庫的醫療筆記訓練,並在UT Southwestern Medical Center的971份病人筆記上測試,專注於就業、住房、婚姻關係和物質使用等六個類別。性能指標顯示,SBDH-Reader在各類別中取得了0.85到0.98的宏觀平均F1分數,特別是在識別不良屬性方面表現優異。總體而言,這個工具能有效提升臨床研究和病人照護的數據提取能力。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

從電子健康紀錄擷取健康社會決定因素很難,因為資料多是非結構化且類別不均。作者把UMLS語意知識結合進大型語言模型,來產生更多訓練資料,特別補足資料較少的類別。這方法能提升模型擷取SDoH資訊的效果,並已在MIMIC-SDoH資料集上驗證有效。 PubMed

SDoH-GPT 是一套新方法,結合大型語言模型、少量範例學習和 XGBoost 分類器,能自動從醫療紀錄擷取健康社會決定因素。這大幅減少人工標註,省時又省錢,準確度也很高(Cohen’s kappa 0.92、AUROC 超過 0.90),已在三個資料集驗證,讓醫療界更容易運用 SDoH 資料。 PubMed DOI

這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed

這項研究開發了一套自動化系統,運用大型語言模型和自然語言處理,從文獻中擷取健康社會決定因素,並結合阿茲海默症的生物資料建立知識圖譜。透過圖神經網路預測關聯,有助於了解社會因素對AD風險的影響,且方法也適用於其他健康議題。程式碼已公開在GitHub。 PubMed

大部分醫療紀錄都是非結構化,讓資料分析很困難。這項研究測試九種大型語言模型,能自動從兒科臨床報告擷取結構化資料。不論是商業還是開源模型,表現都很優秀,最好的模型辨識重要病患資訊的準確率超過九成。LLMs為醫療資料擷取提供靈活又準確的替代方案,有機會取代人工處理。 PubMed DOI