原始文章

這項研究探討了不同BERT模型在理解混合韓文和英文的臨床筆記中的效果,特別針對南韓的研究空白。研究使用了來自南韓一家醫院的164,460名患者數據,對BERT-base、BioBERT、KoBERT和多語言BERT(M-BERT)進行了預訓練和評估,涵蓋七個微調任務。 主要發現包括:BERT-base和BioBERT在文件分類中表現最佳,BioBERT的F1分數達89.32;M-BERT在閱讀理解任務中表現優異,F1分數達93.77;在知識推斷方面,M-BERT的hit@10分數為95.41。這項研究顯示了各種BERT模型在多語言臨床環境中的有效性,為未來的應用提供了重要見解。 PubMed DOI


站上相關主題文章列表

研究使用大型語言模型如GPT和BERT自動記錄急診科臨床診斷,並進行BERT微調。透過XAI和SHAP方法分析模型,結果顯示KLUE-RoBERTa表現最佳,XAI提供可靠解釋。研究指出LLMs或許可簡化韓國急診科電子病歷記錄。 PubMed DOI

NLP在生物醫學領域取得進展,比較了多個詞嵌入模型,包括ELMo、BERT、BioBERT和GPT。研究顯示BioBERT在生物醫學文本表現最佳,臨床BioBERT在臨床註釋中表現卓越。這對生物醫學和臨床文件分析的研究人員和從業者有實質價值。 PubMed DOI

臨床文本和文件是重要的醫療資訊來源,利用先進的語言技術處理對於發展支援醫療保健和社會福祉的智慧系統至關重要。我們使用多語言神經網絡模型,如Transformer,以及大規模預先訓練的語言模型進行轉移學習,研究臨床文本機器翻譯。我們的研究顯示,小型預先訓練的語言模型在臨床領域微調中表現優於更大的模型,這是一個新的發現。這些結果對於醫療保健領域的機器翻譯發展具有重要意義。 PubMed DOI

這篇論文研究了在醫學NLP任務中使用PLMs(如BERT、BioBERT和ChatGPT)的效果。涵蓋了文本摘要、問答、情感分析等任務,探討了方法、優勢、數據集和評估指標,並提及最新研究成果。評估了研究質量和影響力,提出未來研究方向,以增進PLMs在臨床應用的可靠性。提供模型代碼和數據集下載鏈接,對醫療NLP有興趣的研究人員和醫護人員有用。 PubMed DOI

這項研究比較了兩種模型在預測住院情況的表現,分別是深度學習模型Bio-Clinical-BERT和詞袋邏輯回歸模型BOW-LR-TF-IDF。研究基於Mount Sinai Health System近140萬名患者的數據,結果顯示Bio-Clinical-BERT的接收者操作特徵曲線下面積(AUC)得分為0.82到0.85,優於BOW-LR-TF-IDF的0.81到0.84。雖然兩者性能差異不大,但都能有效利用分診筆記進行預測。研究強調在資源有限的情況下,簡單模型也能滿足需求,並建議進一步研究以提升醫療預測能力。 PubMed DOI

命名實體識別(NER)模型在從非結構化醫療文本中提取結構化資訊方面非常重要,能識別疾病和治療等實體,對臨床決策和研究有幫助。近期基於BERT的深度學習進展提升了NER能力,但醫學術語的複雜性使得模型在不同數據集上的表現不一。本研究評估了七種NER模型在醫療文本分析中的表現,特別關注複雜術語和宏觀因素對準確性的影響。結果顯示,經微調的BERT在某些數據集上表現最佳,並強調了針對性優化的必要性,以增強臨床決策和開發更有效的醫療NER模型。 PubMed DOI

這項研究評估了ChatGPT在根據病人症狀推薦醫療專科的效果,使用了31,482個標記有27個專科的醫療問題。結果顯示,ChatGPT的準確率為0.939,F1分數為0.134,雖然不及經過微調的韓國醫療BERT(KM-BERT)的準確率0.977和F1分數0.587,但它能提供有價值的解釋,幫助病人理解潛在的醫療狀況。雖然在專科推薦上不如KM-BERT,ChatGPT的對話能力仍可能改善病人獲取資訊的過程。 PubMed DOI

這項研究提出了一種主動學習的方法,能自動從非結構化數據中提取臨床概念,並將其分類為問題、治療和檢測等類別。研究強調高精確度和召回率,並透過i2b2公共數據集進行實驗。使用基於詞彙的方法獲取標記數據,並採用BERT變體如ClinicalBERT和SCIBERT進行分類。結果顯示,SCIBERT在主動轉移學習中表現優異,並且結合CNN的深度學習模型達到高準確率,顯示出在臨床應用中的潛力。 PubMed DOI

這項研究探討了使用遮蔽語言模型(MLM)在醫院特定領域的適應性,並應用於基於BERT的模型來分類神經放射學報告。分析了來自國王學院醫院和蓋伊與聖托馬斯信託醫院的超過200,000份MRI報告。結果顯示,經過適應的模型性能顯著提升,最佳訓練數據達到97.0%和95.5%的準確率。Llama-3.0 70B模型表現最佳,準確率分別為97.1%和94.0%。研究建議在臨床環境中使用醫院特定的模型適應,並指出LLM可作為有效替代方案。 PubMed DOI

這項研究評估了現代自然語言處理技術,特別是大型語言模型在電子健康紀錄中提取「適應症」資訊的能力,針對抗生素處方進行分析。研究分析了938,150份處方,將4,000個常見適應症分類為11個感染相關類別。結果顯示,微調的Bio+Clinical BERT模型在測試中表現優異,F1分數達0.97和0.98,明顯優於傳統方法。研究結論指出,自由文本適應症能更有效識別感染來源,提升31%。整體而言,基於變壓器的模型在提取臨床數據中顯示出廣泛應用潛力。 PubMed DOI