原始文章

這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed


站上相關主題文章列表

OpenMedLM是一個開源的醫學語言模型,在醫學基準測試中表現優異,且無需大量微調。透過提示策略,OpenMedLM在三個醫學語言模型基準測試中取得領先地位,超越其他模型。這顯示開源基礎模型在提升醫療任務表現方面具有潛力,同時也凸顯提示工程對於醫學應用中易用的語言模型的重要性。 PubMed DOI

這項研究強調在醫療照護中評估健康社會決定因素(SDoH)的重要性,以改善病患照護並縮小健康差距。研究探討了電子健康紀錄(EHRs)中SDoH數據不足的挑戰,主要因為缺乏標準化的診斷代碼。研究團隊使用大型語言模型(如BERT和RoBERTa)來分類無家可歸、食物不安全和家庭暴力等SDoH概念,並創建合成訓練數據集。結果顯示,這些模型能有效提取SDoH資訊,幫助醫療提供者識別高風險病患,進而實施針對性干預,支持減少健康差距的努力。 PubMed DOI

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI

這項研究用標準化、針對人類優化的提示語,讓大型語言模型標註六家醫院的放射科報告,結果 Llama 3.1 70b 在不同報告和機構間都很準確且一致。顯示只要設計好提示語,LLMs 在各種臨床環境下都能穩定標註。未來會再加強提示語的通用性和模型穩定性。 PubMed DOI

這篇研究針對電子病歷中難以提取健康社會決定因素(SDoH)問題,從四家醫院建立標註資料集,涵蓋21種SDoH,並用多種模型(包含大型語言模型)進行偵測。經過指令微調的LLMs表現最佳,F1值都很高,但模型跨醫院應用仍有困難。訓練好的模型已公開在GitHub。 PubMed DOI

從電子健康紀錄擷取健康社會決定因素很難,因為資料多是非結構化且類別不均。作者把UMLS語意知識結合進大型語言模型,來產生更多訓練資料,特別補足資料較少的類別。這方法能提升模型擷取SDoH資訊的效果,並已在MIMIC-SDoH資料集上驗證有效。 PubMed

SDoH-GPT 是一套新方法,結合大型語言模型、少量範例學習和 XGBoost 分類器,能自動從醫療紀錄擷取健康社會決定因素。這大幅減少人工標註,省時又省錢,準確度也很高(Cohen’s kappa 0.92、AUROC 超過 0.90),已在三個資料集驗證,讓醫療界更容易運用 SDoH 資料。 PubMed DOI

這項研究發現,像 Med-BERT 這種專為醫療設計的大型語言模型,比通用型模型更能處理不同醫院間的資料差異,提升知識轉移效果。通用模型如 OpenAI 需額外微調。未來建議持續研究如何在任務難度、資料量和微調之間取得最佳平衡。 PubMed

**重點摘要:** 這項研究顯示,使用 prompt-tuning 搭配大型臨床語言模型(GatorTronGPT)可以有效地摘要醫師與病患之間的對話,不僅表現優於以往經過 fine-tune 的模型,而且更有效率,因為不需要更新模型的參數。 PubMed

這項研究評估多種大型語言模型,利用提示工程從胃鏡和大腸鏡報告中擷取結構化資訊。結果顯示,大型且專業化的模型在基本資訊擷取表現最好,但遇到複雜推理時仍有限制。少樣本學習對部分模型有幫助,顯示LLMs自動化醫療文本分析有潛力,但還需改進。 PubMed DOI