原始文章

命名實體識別(NER)模型在從非結構化醫療文本中提取結構化資訊方面非常重要,能識別疾病和治療等實體,對臨床決策和研究有幫助。近期基於BERT的深度學習進展提升了NER能力,但醫學術語的複雜性使得模型在不同數據集上的表現不一。本研究評估了七種NER模型在醫療文本分析中的表現,特別關注複雜術語和宏觀因素對準確性的影響。結果顯示,經微調的BERT在某些數據集上表現最佳,並強調了針對性優化的必要性,以增強臨床決策和開發更有效的醫療NER模型。 PubMed DOI


站上相關主題文章列表

研究比較了不同NLP模型在擷取非小細胞肺癌患者影像報告中的癌症結果。結果顯示,DFCI-ImagingBERT表現最佳,但簡單模型也不錯。若資源有限,簡單機器學習模型仍可有效。 PubMed DOI

研究提出一種方法,從藥品標籤中提取藥物資訊,強化藥物術語。比較各種NER模型,找出最適合提取藥物資訊的模型。使用規則關係提取算法和藥物搜尋方法建立藥物知識圖,並與術語伺服器中的藥物匹配。結果顯示BERT-CRF模型在NER方面表現最佳,藥物搜尋方法匹配準確率達77%。建議將此模型應用為網路服務,改善醫療藥物管理。 PubMed DOI

研究指出,GPT-3.5和GPT-4處理臨床數據時,只需少量訓練數據即可提取有價值資訊。透過改進提示策略,可增進模型在臨床命名實體識別任務表現,減少大量標註數據需求。雖GPT模型在臨床應用有潛力,仍需進一步改進。研究結果凸顯了量身定制的提示框架重要性,以提高大型語言模型在臨床環境性能。 PubMed DOI

研究人員透過手動標註和深度學習技術,在生醫文獻中成功提取遺傳疾病相關資訊。他們標註了400篇文章,並達到高水準的準確度。使用BERT和DistilBERT模型進行訓練和測試,取得了優異的實體提取成果,特別是在變異實體的辨識上表現優異,與最先進的模型相當。 PubMed DOI

大型語言模型在處理自然語言方面有很大潛力,特別是在文本生成、推理和少樣本學習方面表現優秀。然而,在生物醫學領域的命名實體識別方面,LLMs效果不如專門調校的模型好。為了解決這問題,開發了一種新的基於指令的學習方法,創建了BioNER-LLaMA。測試結果顯示,BioNER-LLaMA在生物醫學NER任務中表現優於GPT-4,與專門模型相當。這種方法有潛力提升LLMs在生物醫學和健康領域的競爭力,值得進一步研究。 PubMed DOI

這項研究探討基於Transformer的命名實體識別(NER)模型,特別是標記級別與實體級別評估的差異。研究使用合成法語腫瘤報告數據集,對四個BERT模型進行微調,並評估其在兩個級別的表現。結果顯示,從標記級別轉向實體級別時,模型表現有明顯差異,強調了NER任務中評估方法的重要性。此外,雖然BERT模型表現不錯,但ChatGPT在識別法語複雜實體方面仍有挑戰。 PubMed DOI

這項研究比較了微調深度學習模型(基於PubMed摘要)與大型語言模型(ChatGPT-3.5)在不良藥物事件命名實體識別(NER)的表現。結果顯示,Hussain等人的微調模型達到97.6%的F1分數,遠高於ChatGPT-3.5的86.0%。雖然少量學習在數據有限時仍具實用性,但無法超越深度學習模型的表現。未來將探討使用GPT-4的少量提示及微調GPT-3.5的可能性。 PubMed DOI

這項研究專注於從非結構化的臨床筆記中提取與腫瘤學相關的結構化資訊,特別是癌症藥物與症狀負擔的關係。研究人員建立了名為CACER的資料集,包含超過48,000個醫療問題和藥物事件的詳細註解。經過微調的BERT和Llama3模型在事件提取上表現最佳,F1分數分別為88.2和88.0,而GPT-4在這些任務中的表現最差。這顯示微調模型在特定任務上更有效,CACER資料庫為未來的醫療資訊提取研究提供了重要資源。 PubMed DOI

這項研究探討大型語言模型(LLMs)在中文生物醫學命名實體識別(BNER)任務的表現,這領域的研究相對較少。作者評估了多個LLMs,包括ChatGLM2-6B、GLM-130B、GPT-3.5和GPT-4,使用真實的中文電子病歷數據集及公共數據集。結果顯示,雖然LLMs在零樣本和少樣本情境下有潛力,但經過指令微調後表現顯著提升。特別是微調後的ChatGLM2-6B在真實數據集上超越了專門模型,而GPT-3.5在CCKS2017數據集上表現最佳,但仍未超過頂尖專業模型DGAN。這是首個評估LLMs在中文BNER任務的研究,顯示其潛力並為未來應用提供指導。 PubMed DOI

這項研究探討了不同BERT模型在理解混合韓文和英文的臨床筆記中的效果,特別針對南韓的研究空白。研究使用了來自南韓一家醫院的164,460名患者數據,對BERT-base、BioBERT、KoBERT和多語言BERT(M-BERT)進行了預訓練和評估,涵蓋七個微調任務。 主要發現包括:BERT-base和BioBERT在文件分類中表現最佳,BioBERT的F1分數達89.32;M-BERT在閱讀理解任務中表現優異,F1分數達93.77;在知識推斷方面,M-BERT的hit@10分數為95.41。這項研究顯示了各種BERT模型在多語言臨床環境中的有效性,為未來的應用提供了重要見解。 PubMed DOI