原始文章

這項研究介紹了PromptLink,一個新框架,用來連結不同數據來源的生物醫學概念,解決命名慣例不同的問題。傳統方法如字串匹配和機器學習有其限制,而PromptLink則利用大型語言模型(LLMs)生成候選概念,並透過兩階段提示過程進行連結。第一階段提取生物醫學知識,第二階段則精煉預測以提高可靠性。實證結果顯示,PromptLink能有效連結電子健康紀錄和生物醫學知識圖譜的概念,且不需額外的先驗知識或訓練數據,源代碼已在GitHub上公開。 PubMed DOI


站上相關主題文章列表

OpenMedLM是一個開源的醫學語言模型,在醫學基準測試中表現優異,且無需大量微調。透過提示策略,OpenMedLM在三個醫學語言模型基準測試中取得領先地位,超越其他模型。這顯示開源基礎模型在提升醫療任務表現方面具有潛力,同時也凸顯提示工程對於醫學應用中易用的語言模型的重要性。 PubMed DOI

這項研究提出了一種名為「GAPrompt」的新方法,旨在提升大型語言模型(LLMs)在自動化臨床評估中的應用,特別是針對電子健康紀錄(EHRs)中的中風評估。GAPrompt包含五個關鍵組件,包括選擇適合的LLM、建立增強知識庫、改善檢索、增強推理精確性及結合多重生成輸出。研究結果顯示,GAPrompt能有效分析EHRs並提供定量評估,解決傳統中風評估的勞動密集問題,顯示LLMs在醫療及其他領域的潛力。 PubMed DOI

所提的PromptLLM方法針對生成新疾病的放射科報告,特別是在標記數據有限的情況下,提供了解決方案。它包含三個步驟: 1. **對齊**:將影像與文本報告對齊,從已標記的疾病中提取知識。 2. **自編碼**:利用新疾病的未標記數據訓練語言模型,掌握相關知識與寫作風格。 3. **提示**:用獲得的知識提示LLM,生成針對新疾病的準確報告。 這方法在僅用1%訓練數據的情況下,能有效生成報告,減少對大型標記數據集的依賴,提升新興疾病的數據分析能力。相關代碼與數據已在GitHub公開。 PubMed DOI

基於深度學習的自然語言處理系統在臨床領域常需大量標記數據,但這些數據難以獲得且成本高。雖然弱監督和上下文學習有助於大型語言模型,但效果仍不如傳統監督方法。我們提出一種新方法,結合LLMs的微調與弱監督,僅需少量領域知識即可提升表現。透過提示策略生成弱標記數據,並用少量金標準數據微調BERT模型。我們在i2b2/n2c2數據集上測試,結果顯示僅用10個金標準筆記,模型F1分數超越PubMedBERT,提升幅度達4.7-47.9%。使用50個金標準筆記時,性能可與完全微調系統相媲美。 PubMed DOI

最近,大型語言模型(LLMs)在生物醫學資訊擷取(IE)方面的應用逐漸增多,但仍面臨提示工程和演算法開發的挑戰,且缺乏專門的軟體解決方案。為此,我們開發了 **LLM-IE**,這是一個用於建立資訊擷取管道的 Python 套件,能協助進行命名實體識別、實體屬性擷取及關係擷取。我們在 i2b2 臨床數據集上測試,發現其在實體擷取上達到超過 70% 的 F1 分數,實體屬性擷取約 60%。**LLM-IE** 還提供互動式 LLM 代理、先進的提示演算法及可視化工具,未來將持續增強與提升效率。 PubMed DOI

這項研究聚焦於醫療概念標準化(MCN),強調數據質量對其表現的重要性,並提出一個框架來提升數據質量,利用像ChatGPT這樣的大型語言模型。研究評估了MCN數據集的質量,並透過ChatGPT進行數據增強,分析生成數據的正確性。實驗探討數據質量對MCN模型的影響,並指出增強過程中的數據重複問題。最終,研究認為少樣本學習結合適當的上下文是提升MCN數據質量的有效方法,並提供了寶貴的見解。如需詳情,可參考提供的GitHub連結。 PubMed DOI

這項研究用標準化、針對人類優化的提示語,讓大型語言模型標註六家醫院的放射科報告,結果 Llama 3.1 70b 在不同報告和機構間都很準確且一致。顯示只要設計好提示語,LLMs 在各種臨床環境下都能穩定標註。未來會再加強提示語的通用性和模型穩定性。 PubMed DOI

這篇論文比較了在 XL-BEL 多語言生醫資料集上,判別式和生成式大型語言模型做跨語言生醫概念正規化的效果。結果發現,判別式模型 e5 表現最好,生成式模型以 BioMistral 最優。相關程式碼已公開在 GitHub。 PubMed DOI

這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed

這項研究評估多種大型語言模型,利用提示工程從胃鏡和大腸鏡報告中擷取結構化資訊。結果顯示,大型且專業化的模型在基本資訊擷取表現最好,但遇到複雜推理時仍有限制。少樣本學習對部分模型有幫助,顯示LLMs自動化醫療文本分析有潛力,但還需改進。 PubMed DOI