原始文章

這篇論文探討了深度學習在生物醫學文本挖掘的進展,特別是獲取高品質標註數據的挑戰,如數據稀缺和隱私問題。作者提出了LetEx-Learning方法,將可解釋性融入少量樣本學習中,利用大型語言模型生成推理解釋,提升學習效果。實驗顯示,這種方法在低資源情況下的表現提升達6.41%。LetEx模型擁有2.2億參數,推理能力優於其他模型,源代碼已公開供研究使用。 PubMed DOI


站上相關主題文章列表

在生物醫學研究中,建立生物醫學知識圖譜很重要,尤其是聚焦於術語。CoRTEx運用大型語言模型改進術語表示,並透過對比學習提升聚類效果。透過ChatGPT生成UMLS術語解釋,CoRTEx在測試中表現出色,能有效聚類數百萬術語。案例研究顯示其處理困難樣本和對齊術語的有效性,展現高準確性和穩定性。 PubMed DOI

深度學習在醫療研究中有顯著進展,尤其在自然語言處理領域。然而,模型複雜性需要解釋性以支持可靠的決策。本文討論了醫療自然語言處理中的可解釋深度學習,介紹了「可解釋和可解釋的人工智慧」(XIAI)概念。不同模型根據功能和範圍進行分類,其中注意機制是常見技術。挑戰在於全局建模過程的有限探索和最佳實踐的缺乏。機會則在於發展多模態XIAI以實現個性化醫療,並將深度學習與因果邏輯結合。在醫療領域成功應用XIAI需要合作和專業知識,以建立可解釋的自然語言處理算法。 PubMed DOI

這篇論文介紹了Self-BioRAG,是專為生物醫學領域設計的框架,可生成解釋並檢索特定領域文件。透過在生物醫學指令集上的訓練,Self-BioRAG在醫學問答任務中表現比現有方法更好,顯示出明顯的進步。該框架結合了檢索增強生成和自我反思,提供精確且熟練的答案。Self-BioRAG強調了領域特定組件的重要性,可增進生物醫學和臨床領域的能力。該框架的數據、程式碼和模型權重可在https://github.com/dmis-lab/self-biorag 下載。 PubMed DOI

這篇論文介紹了MedExpQA,這是一個多語言的基準,專門用來評估大型語言模型(LLMs)在醫療問答的表現。雖然LLMs在醫療執照考試中表現不錯,但仍面臨知識過時和生成不準確資訊的問題。現有基準缺乏參考解釋,讓評估LLM的推理變得困難。MedExpQA提供醫療專業人士的正確與錯誤答案作為參考,研究顯示LLMs在英語的準確率約75%,但其他語言下降10%。作者計劃公開數據、代碼和微調模型,以促進後續研究。 PubMed DOI

這項研究的目的是評估大型語言模型(LLM)在理解和推理關鍵醫療事件方面的能力,特別是拔管(extubation)。研究人員專注於LLM對表格數據的理解及識別變數重要性的能力。此外,研究還探討了將LLM與現有機器學習模型(如XGBoost)結合使用的潛力,以提升醫療決策的能力。 PubMed DOI

高風險自動化決策的解釋權引發了倫理與科技的討論。雖然解釋權對透明度和問責制很重要,但對依賴自動化系統的組織來說,成本問題也不容忽視。大型語言模型(LLMs)可能提供解決方案,幫助簡化解釋過程,減輕企業負擔。然而,使用LLMs也帶來準確性、偏見及依賴自動化系統的倫理擔憂。組織可能會表面合規,卻未真正參與決策。因此,部署LLMs時需謹慎,考量倫理影響及真正的問責需求。 PubMed DOI

本研究針對西班牙語電子健康紀錄(EHR)進行自動分類,並強調可解釋性的重要性。我們引入了一個新指標Leberage,來量化預測的決策支持水平,並評估三種解釋方法:SHAP、LIME和IG。使用長型變壓器處理長文檔,並識別影響ICD分類的相關文本片段。結果顯示,我們的方法在同樣任務上提升了7%的效果,且LIME的表現最佳。整體而言,這些技術有效闡明黑箱模型的輸出,Leberage指標則為可解釋性技術的貢獻提供了量化工具。 PubMed DOI

大型語言模型(LLMs)有潛力顯著改變臨床醫學,能改善醫療服務的可及性、增強診斷、協助手術規劃及促進教育。不過,這些模型的有效運用需謹慎設計提示,以應對幻覺和偏見等挑戰。理解標記化、嵌入和注意力機制等關鍵概念,以及運用策略性提示技術,對生成準確輸出至關重要。AI技術與醫療專業人員的合作、重視倫理問題如數據安全和偏見緩解,能提升醫療服務質量與可及性。持續的研究與發展對於發揮LLMs在醫療領域的潛力至關重要。 PubMed DOI

這項研究探討如何將大型語言模型(LLMs)整合進證據基礎醫學(EBM),以自動化任務如證據檢索和傳播,來提升臨床決策。研究比較了七個LLMs的表現,結果顯示這些模型在理解和總結方面表現優異,知識引導的提示也顯著提升了效果。不過,在命名實體識別和事實準確性上仍面臨挑戰,需要進一步研究和質量控制才能應用於臨床。研究結果和代碼已在GitHub上公開。 PubMed DOI

這項研究探討了基於Transformer的預訓練大型語言模型(LLMs)在生物醫學領域的適應性與表現,特別針對自然語言推理(NLI)和命名實體識別(NER)兩個任務。研究旨在了解模型在這些任務上的表現與其捕捉資訊的能力之間的關係。分析了編碼器和解碼器基礎的LLMs的內部編碼及注意力機制,並比較了不同數據量微調前後的效果。結果顯示,模型的有效性與其內部機制中的特定模式有關,並提供了LLMs在生物醫學領域如何處理知識的見解。研究源代碼已在GitHub上公開。 PubMed DOI