原始文章

這篇論文提出了一個新的深度主動學習框架,專注於改善非結構化醫療數據的標註,特別是臨床筆記,使用SOAP格式。由於醫療數據標籤不明確,手動標註困難,因此採用基於變壓器的深度學習技術,自動化多類別文本分類的標註過程,減少手動工作量並提升分類性能。實驗結果顯示,該模型在F1分數上比現有方法提高了4.8%。這不僅提升了分類準確性,還為醫療專業人員提供了實用工具,可能改善臨床文檔和病患照護。研究建議未來可整合多模態數據和大型語言模型,進一步增強臨床文本分析。 PubMed DOI


站上相關主題文章列表

深度神經網絡應用在臨床決策,可提升診斷效率減輕醫師負擔。對於罕見疾病,標記數據不足。新的醫學多模式大型語言模型(Med-MLLM)可從未標記數據中學習,快速適應罕見疾病。處理視覺(如X光)和文本(如醫學報告)數據,適用於臨床任務。在COVID-19中證明Med-MLLM有效,僅需少量標記數據即可提供準確決策支持。 PubMed DOI

臨床文本和文件是重要的醫療資訊來源,利用先進的語言技術處理對於發展支援醫療保健和社會福祉的智慧系統至關重要。我們使用多語言神經網絡模型,如Transformer,以及大規模預先訓練的語言模型進行轉移學習,研究臨床文本機器翻譯。我們的研究顯示,小型預先訓練的語言模型在臨床領域微調中表現優於更大的模型,這是一個新的發現。這些結果對於醫療保健領域的機器翻譯發展具有重要意義。 PubMed DOI

Transformer神經網絡最初為處理自然語言而生,現在在醫療領域廣泛運用,用來分析各種數據。應用範圍包括臨床語言處理、醫學影像、電子病歷、社群媒體、生理訊號和生物序列。Transformer已用於手術指導、預測手術後結果、臨床診斷、報告生成、數據重建和藥物/蛋白合成。討論了在醫療中使用Transformer的優勢和限制,如計算成本、模型解釋性、公平性、與價值觀一致性、倫理和環境影響。 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

您的研究專注於從非結構化醫療文本中提取數據,特別針對急性缺血性中風患者。您結合主動學習和自然語言處理技術,訓練了一個意大利語的BERT模型,自動從電子健康紀錄中提取臨床變數。透過貝葉斯不確定性取樣法進行模擬主動學習,發現隨著標記文本的增加,模型的學習效率顯著提升。此外,手動標記和半自動提取的數據在預後模型中表現相似,顯示您的方法在預測患者結果上是有效的。整體而言,您的研究顯示高效語言模型在臨床數據提取及預測準確性上的潛力。 PubMed DOI

這項研究探討了基於變壓器的自然語言處理(NLP)如何改善偶發性主動脈瘤(AAs)的檢測與管理。研究目標包括評估NLP管道的有效性、量化臨床影響及促進約診協調。分析了3,229份放射學報告,結果顯示NLP在檢測AAs方面準確性高,F1分數介於96.7%到99.4%之間,優於手動查閱。研究中,14.1%的患者有偶發性發現,55.7%成功聯繫並協調後續約診,顯示NLP能有效增強主動脈瘤的監測,改善患者結果。 PubMed DOI

這項研究探討基於變壓器模型的領域適應技術,以提升對醫療文本的理解,特別針對葡萄牙語的健康照護語言模型。研究發現,雖然英語和中文已有許多相關模型,但歐洲葡萄牙語卻缺乏公共健康照護語言模型。建議先開發一般模型,再針對特定疾病進行開發。變壓器在信息提取中最為常用,主要聚焦於命名實體識別。研究指出,領域適應能提升任務表現,並呼籲對葡萄牙語進行更多研究,以改善醫療信息提取,幫助醫療人員更有效管理病患數據。 PubMed DOI

這項研究探討了在醫療保健領域應用預訓練大型語言模型(LLMs)的挑戰,特別是資源有限的情況下。研究開發了三種專門的預訓練方法,包括傳統的遮蔽語言模型、深度對比學習,以及結合醫療元數據的創新方法。結果顯示,對比訓練的模型在分類任務中表現最佳,雖然基於元數據的方法未提升分類性能,但在嵌入集群可分性上有趣的結果。整體而言,這項研究強調了專門預訓練方法在醫療保健自然語言處理中的潛力,並解決了數據隱私和資源限制的問題。 PubMed DOI

這項研究致力於開發一種整合大型語言模型(LLM;GPT4-Turbo)的自然語言處理(NLP)演算法,目的是自動從電子健康紀錄(EHRs)中提取脊椎手術數據。傳統的手動審查方法繁瑣且易出錯,因此自動化非常重要。演算法採用兩階段流程,先用基於規則的NLP框架識別文本,再由LLM進行驗證。結果顯示,這種方法在準確性、時間效率和成本上均優於傳統方式,顯示出在臨床應用的潛力。 PubMed DOI

這項研究探討了開源大型語言模型(LLMs),如LLaMA和Alpaca,在早期COVID-19疫情期間的醫院員工調查中進行數據增強。研究分為兩步:首先用LLM生成合成數據,然後用三種分類器對這些數據進行主題分類。最佳結果來自LLaMA 7B,設定溫度0.7,生成100個合成數據點,結合RoBERTa進行分類,平均AUC達0.87。結果顯示,開源LLM能顯著提升醫療領域小型數據集的文本分類表現,並強調隱私與倫理考量的重要性,指向未來醫學教育和病人護理的研究方向。 PubMed DOI