這項研究探討了不同BERT模型在理解混合韓文和英文的臨床筆記中的效果,特別針對南韓的研究空白。研究使用了來自南韓一家醫院的164,460名患者數據,對BERT-base、BioBERT、KoBERT和多語言BERT(M-BERT)進行了預訓練和評估,涵蓋七個微調任務。 主要發現包括:BERT-base和BioBERT在文件分類中表現最佳,BioBERT的F1分數達89.32;M-BERT在閱讀理解任務中表現優異,F1分數達93.77;在知識推斷方面,M-BERT的hit@10分數為95.41。這項研究顯示了各種BERT模型在多語言臨床環境中的有效性,為未來的應用提供了重要見解。 相關文章 PubMed DOI