原始文章

這項研究介紹了PromptLink,一個新框架,用來連結不同數據來源的生物醫學概念,解決命名慣例不同的問題。傳統方法如字串匹配和機器學習有其限制,而PromptLink則利用大型語言模型(LLMs)生成候選概念,並透過兩階段提示過程進行連結。第一階段提取生物醫學知識,第二階段則精煉預測以提高可靠性。實證結果顯示,PromptLink能有效連結電子健康紀錄和生物醫學知識圖譜的概念,且不需額外的先驗知識或訓練數據,源代碼已在GitHub上公開。 PubMed DOI


站上相關主題文章列表

研究指出,GPT-3.5和GPT-4處理臨床數據時,只需少量訓練數據即可提取有價值資訊。透過改進提示策略,可增進模型在臨床命名實體識別任務表現,減少大量標註數據需求。雖GPT模型在臨床應用有潛力,仍需進一步改進。研究結果凸顯了量身定制的提示框架重要性,以提高大型語言模型在臨床環境性能。 PubMed DOI

整合生物醫學知識庫有助於醫學決策,提供統一索引系統和詳盡對齊。現有方法缺乏監督,需依賴基本匹配算法。神經嵌入模型有潛力,但需要標記數據。HiPrompt是一個利用大型語言模型進行少樣本推理的生物醫學知識融合框架,對KG-Hi-BKF數據集的實驗結果顯示有效性。 PubMed DOI

LLMs在臨床應用上很強大,但缺乏標記數據。為了掌握臨床知識,需要進行上下文學習。研究評估了零-shot和少-shot臨床信息提取的提示工程技術。結果顯示,定制任務特定提示至關重要,而啟發式和集成提示也很有效。GPT-3.5表現最佳,並且集成方法有助於提升性能。這項研究為臨床自然語言處理的提示工程提供了重要的指導。 PubMed DOI

生成式大型語言模型(LLMs)是先進的神經網絡模型,透過大量數據和高效運算,在自然語言處理領域取得成功。這篇由AMIA NLP工作組撰寫的文章探討了在NLP應用中整合LLMs的機會、挑戰和最佳實踐,特別針對生物醫學信息學。強調讓臨床醫生和研究人員能輕鬆使用LLMs,解決文本中的虛假資訊和數據污染問題。文章回顧了LLMs的微調和評估趨勢,強調新技術可應對生物醫學NLP挑戰。 PubMed DOI

OpenMedLM是一個開源的醫學語言模型,在醫學基準測試中表現優異,且無需大量微調。透過提示策略,OpenMedLM在三個醫學語言模型基準測試中取得領先地位,超越其他模型。這顯示開源基礎模型在提升醫療任務表現方面具有潛力,同時也凸顯提示工程對於醫學應用中易用的語言模型的重要性。 PubMed DOI

這項研究聚焦於醫療領域的提示工程,探討其如何提升大型語言模型(LLMs)處理複雜醫療文本的能力。研究回顧了114篇2022至2024年間的相關文獻,發現提示設計(PD)是最常用的方法,且ChatGPT是最受歡迎的LLM。思考鏈技術被廣泛應用,但有61%的研究未報告基準,影響有效性評估。研究旨在提供醫療提示工程的現狀,識別機會與挑戰,並提出未來研究的指導方針。 PubMed DOI

大型語言模型(LLMs)有潛力顯著改變臨床醫學,能改善醫療服務的可及性、增強診斷、協助手術規劃及促進教育。不過,這些模型的有效運用需謹慎設計提示,以應對幻覺和偏見等挑戰。理解標記化、嵌入和注意力機制等關鍵概念,以及運用策略性提示技術,對生成準確輸出至關重要。AI技術與醫療專業人員的合作、重視倫理問題如數據安全和偏見緩解,能提升醫療服務質量與可及性。持續的研究與發展對於發揮LLMs在醫療領域的潛力至關重要。 PubMed DOI

這項研究提出了一種名為「GAPrompt」的新方法,旨在提升大型語言模型(LLMs)在自動化臨床評估中的應用,特別是針對電子健康紀錄(EHRs)中的中風評估。GAPrompt包含五個關鍵組件,包括選擇適合的LLM、建立增強知識庫、改善檢索、增強推理精確性及結合多重生成輸出。研究結果顯示,GAPrompt能有效分析EHRs並提供定量評估,解決傳統中風評估的勞動密集問題,顯示LLMs在醫療及其他領域的潛力。 PubMed DOI

所提的PromptLLM方法針對生成新疾病的放射科報告,特別是在標記數據有限的情況下,提供了解決方案。它包含三個步驟: 1. **對齊**:將影像與文本報告對齊,從已標記的疾病中提取知識。 2. **自編碼**:利用新疾病的未標記數據訓練語言模型,掌握相關知識與寫作風格。 3. **提示**:用獲得的知識提示LLM,生成針對新疾病的準確報告。 這方法在僅用1%訓練數據的情況下,能有效生成報告,減少對大型標記數據集的依賴,提升新興疾病的數據分析能力。相關代碼與數據已在GitHub公開。 PubMed DOI

這項研究聚焦於醫療概念標準化(MCN),強調數據質量對其表現的重要性,並提出一個框架來提升數據質量,利用像ChatGPT這樣的大型語言模型。研究評估了MCN數據集的質量,並透過ChatGPT進行數據增強,分析生成數據的正確性。實驗探討數據質量對MCN模型的影響,並指出增強過程中的數據重複問題。最終,研究認為少樣本學習結合適當的上下文是提升MCN數據質量的有效方法,並提供了寶貴的見解。如需詳情,可參考提供的GitHub連結。 PubMed DOI