原始文章

這項研究探討自然語言處理(NLP)在臨床決策中的應用,特別針對西班牙語的轉診優先級排序和專科分類。研究發現,臨床特定的預訓練語言模型表現最佳,轉診優先級排序的宏觀F1分數達88.85%,專科分類為53.79%。雖然繼續預訓練稍微提升性能,但相對於計算成本,這些提升不算明顯。大型語言模型的少量學習在數據稀缺時仍有用。研究為臨床NLP從業者提供實用建議,強調考量數據可用性和任務複雜性。 PubMed DOI


站上相關主題文章列表

醫師需要快速做決定,預測模型能預測臨床事件,提供幫助。傳統模型有限制,但透過臨床註記訓練語言模型,可以打造更多功能的預測引擎。開發了醫學語言模型(NYUTron),並在預測再入院和死亡方面進行微調,比傳統模型更準確。對臨床文本進行預訓練,再針對不同地點進行微調,可以增強泛化能力。成功在試驗中應用,顯示臨床語言模型有潛力協助醫師即時做決定。 PubMed DOI

研究指出,GPT-3.5和GPT-4處理臨床數據時,只需少量訓練數據即可提取有價值資訊。透過改進提示策略,可增進模型在臨床命名實體識別任務表現,減少大量標註數據需求。雖GPT模型在臨床應用有潛力,仍需進一步改進。研究結果凸顯了量身定制的提示框架重要性,以提高大型語言模型在臨床環境性能。 PubMed DOI

研究探討利用語言模型強化電子健康記錄的風險預測。提出兩種新方法「LLaMA2-EHR」和「Sent-e-Med」,利用病歷文本預測診斷結果,表現優於先前方法,特點是少量樣本學習和適應醫學詞彙。但結果受提示影響,語言模型安全問題尚待解決,建議謹慎使用。 PubMed DOI

臨床文本和文件是重要的醫療資訊來源,利用先進的語言技術處理對於發展支援醫療保健和社會福祉的智慧系統至關重要。我們使用多語言神經網絡模型,如Transformer,以及大規模預先訓練的語言模型進行轉移學習,研究臨床文本機器翻譯。我們的研究顯示,小型預先訓練的語言模型在臨床領域微調中表現優於更大的模型,這是一個新的發現。這些結果對於醫療保健領域的機器翻譯發展具有重要意義。 PubMed DOI

近期LLMs如ChatGPT在醫療保健領域受歡迎,但也帶來安全和倫理風險。為因應此挑戰,提出新方法評估LLMs在臨床護理中的可行性,強調安全、個人化護理和倫理。透過跨學科知識整合和文獻回顧,確定關鍵評估領域。由專家進行同行評審,確保科學嚴謹。在臨床腫瘤護理中評估九種LLMs後,有些被推薦使用,有些謹慎使用或不可使用。推薦使用特定領域的LLMs可支持醫療專業人員的決策。 PubMed DOI

大型語言模型(LLMs)在臨床決策中或許有好處,但目前還不適合實際醫療使用。一項研究指出,LLMs在真實病例中無法正確診斷、無法遵循指引、難以解釋檢驗結果,且難以整合到臨床流程中,可能危害患者健康。需要更多研究以改進LLMs在臨床決策的應用。 PubMed DOI

大型語言模型(LLMs)在研究和商業應用中越來越受重視,現在的趨勢是使用參數高效微調(PEFT)方法來開發較小的專用模型,而不需完全微調。研究發現,LoRA在各種任務中表現優異,常與完全微調的模型相當,顯示PEFT方法在臨床決策中有效,特別適合低成本運算。小型模型的優勢如快速處理和低訓練成本,超越大型LLMs的性能。此外,領域特定的預訓練對小型模型也相當重要。完整代碼可在GitHub上找到。 PubMed DOI

這項研究探討了在醫療保健領域應用預訓練大型語言模型(LLMs)的挑戰,特別是資源有限的情況下。研究開發了三種專門的預訓練方法,包括傳統的遮蔽語言模型、深度對比學習,以及結合醫療元數據的創新方法。結果顯示,對比訓練的模型在分類任務中表現最佳,雖然基於元數據的方法未提升分類性能,但在嵌入集群可分性上有趣的結果。整體而言,這項研究強調了專門預訓練方法在醫療保健自然語言處理中的潛力,並解決了數據隱私和資源限制的問題。 PubMed DOI

基於深度學習的自然語言處理系統在臨床領域常需大量標記數據,但這些數據難以獲得且成本高。雖然弱監督和上下文學習有助於大型語言模型,但效果仍不如傳統監督方法。我們提出一種新方法,結合LLMs的微調與弱監督,僅需少量領域知識即可提升表現。透過提示策略生成弱標記數據,並用少量金標準數據微調BERT模型。我們在i2b2/n2c2數據集上測試,結果顯示僅用10個金標準筆記,模型F1分數超越PubMedBERT,提升幅度達4.7-47.9%。使用50個金標準筆記時,性能可與完全微調系統相媲美。 PubMed DOI

大型語言模型(LLMs)對醫療領域的自然語言處理(NLP)影響深遠,近期的研究顯示,專為醫療文本設計的LLMs逐漸受到重視。這篇回顧分析了基於LLMs的生物醫學NLP,資料來源涵蓋多個學術平台,重點在醫學文獻、電子健康紀錄(EHRs)及社交媒體。雖然通用LLMs如GPT-4被廣泛使用,但針對特定應用的自訂LLMs趨勢上升。傳統模型在某些任務上仍優於新型LLMs,但後者在少量學習和生成任務中表現佳。未來研究需關注評估、偏見及公平性等議題。 PubMed DOI