原始文章

文件級關係三元組提取在生物醫學文本挖掘中非常重要,尤其是在藥物發現和生物醫學知識圖譜的建立上。不過,現有語言模型在新數據集和關係類型上泛化能力不足,影響其效能。為了解決這個問題,我們提出了一種漸進學習策略,發展出PLRTE模型,透過四級漸進學習過程來增強模型對各種生物醫學關係的理解。實驗結果顯示,我們的模型在DDI和BC5CDR數據集上性能提升5%到20%,並在未見過的Chemprot和GDA數據集上也展現出良好的泛化能力。 PubMed DOI


站上相關主題文章列表

少樣本關係抽取(few-shot RE)是一種在文本中識別實體間關係的方法,只需極少標註示例。現有方法如原型網絡透過增強原型表示或對比學習來提升預測,但可能在異常樣本及相似類別混淆上遇到困難。為因應此問題,提出了語義引導學習(SemGL)方法,透過提示編碼及關係圖學習來強化實例與原型表示,突顯關係特徵及共享特性,並透過對比學習在實例及原型層級提升性能。SemGL引入新的關係原型進行預測,在少樣本關係抽取數據集上表現良好,尤其在領域適應任務中。 PubMed DOI

研究發現在大型語言模型中運用適應性示範提取臨床關係,專注於指示和示例提示,能有效提升模型表現。LEAP框架在DDI和BC5CDR數據集上評估LLMs,顯示F1分數有明顯提升。特別是MedLLAMA-13b模型在BC5CDR上表現優異。這項研究為增強LLM訓練策略提供了有前途的方法。 PubMed DOI

生物醫學文獻增加快速,需要自動識別生物醫學概念關係。LitCoin NLP挑戰評估這個潛力,提供語料庫。我們的自然語言處理系統採用集成學習和基於規則的方法,在命名實體識別和關係提取任務表現優異,勝過200多支隊伍。微調110億參數模型提升性能,並與OpenAI ChatGPT等大型語言模型進行測試,顯示在生物醫學任務中具有優勢。結果凸顯特定模型對生物醫學研究的重要性。 PubMed DOI

生物醫學研究中,提取關係對整理資料、藥物再利用和新發現很重要。研究者利用關係分類來改進SemMedDB,並透過PubMedBERT模型進行訓練。測試結果顯示準確度、召回率和F1分數皆有提升。SemMedDB應用於1.2萬個摘要後,資料量增加一倍,67%的新預測正確。這個模型展現了提升生物醫學文獻挖掘的潛力。詳細資訊請參考https://github.com/Michelle-Mings/SemRep_RelationClassification。 PubMed DOI

關係抽取是NLP中的一個任務,專注於提取生物醫學實體之間的語義關係。研究者們正在研究使用大型語言模型如GPT-3.5-turbo和GPT-4來進行這項任務。在研究中,這些模型在EU-ADR、GAD和ChemProt三個標準數據集上進行了測試,並取得了不錯的成績。在某些情況下,GPT模型的表現甚至可以與BioBERT和PubMedBERT相媲美。 PubMed DOI

研究探討了使用大型語言模型進行生物醫學關係提取,並引入了LEAP框架,包括自適應調整方法,提高性能。LEAP框架在不同LLM模型上優於傳統調整,在DDI、ChemProt和BioRED等數據集上表現出色。MedLLAMA_13B模型在ChemProt數據集達到95.13的F1分數。LEAP框架為增強生物醫學關係提取的LLM訓練策略提供了有前途的方法。 PubMed DOI

這項研究探討了大型語言模型(LLMs),如GPT-3.5、GPT-4和Llama,在提取針灸穴位位置關係的有效性,特別是使用世界衛生組織的標準作為數據集。研究標註了五種穴位關係,並根據精確度、召回率和F1分數評估模型表現。結果顯示,微調後的GPT-3.5表現最佳,達到最高微平均F1分數0.92,顯示針灸領域的微調對關係提取的重要性。研究建議LLMs可增強針灸的臨床決策支持及教育資源,推進傳統醫學的資訊學發展。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來提升計算藥物重定位的能力,特別是預測藥物與疾病的關聯。傳統方法常受限於不完整的數據,而LLMs能提供豐富的生物醫學知識。研究人員開發了零樣本提示模板,並提出三種模型架構,結果顯示LLM-DDA<sub>GNN-AE</sub>在多項指標上表現優於其他模型。案例研究也證實了該模型在識別可靠藥物與疾病關聯方面的能力,顯示LLMs在藥物重定位及其他生物醫學任務中的潛力。 PubMed DOI

實體與關係的聯合提取在資訊擷取中非常重要,尤其是在生物醫學文獻中。本文提出的模型有效解決了句內和句間的提取問題,對於長文本中的長距離依賴關係至關重要。模型結合了多種深度學習技術,如微調的BERT、圖卷積網絡、穩健學習及局部正則化條件隨機場,能準確識別生物醫學文本中的實體,並提取三元組關係。實驗結果顯示該模型在多個數據集上表現優異,促進了生物醫學知識圖譜的構建。相關代碼可在GitHub上獲取。 PubMed DOI

基於變壓器的語言模型在自然語言處理上有顯著進展,但在臨床環境中識別藥物不良事件的有效性受到非標準語言的挑戰。研究中,九個預訓練的模型在5,088對藥物-AE數據上微調,並在新加坡的去識別化出院摘要及MIMIC-III數據庫進行驗證。結果顯示,BioM-ELECTRA-Large-BiLSTM模型的F1分數比傳統機器學習提高了16.1%。透過應用規則精煉預測,假陽性減少,精確度提升。整體而言,這些模型在識別因果相關藥物-AE對方面表現優於傳統方法,但仍需額外規則以克服限制。 PubMed DOI