原始文章

命名實體識別(NER)模型在從非結構化醫療文本中提取結構化資訊方面非常重要,能識別疾病和治療等實體,對臨床決策和研究有幫助。近期基於BERT的深度學習進展提升了NER能力,但醫學術語的複雜性使得模型在不同數據集上的表現不一。本研究評估了七種NER模型在醫療文本分析中的表現,特別關注複雜術語和宏觀因素對準確性的影響。結果顯示,經微調的BERT在某些數據集上表現最佳,並強調了針對性優化的必要性,以增強臨床決策和開發更有效的醫療NER模型。 PubMed DOI


站上相關主題文章列表

研究提出一種方法,從藥品標籤中提取藥物資訊,強化藥物術語。比較各種NER模型,找出最適合提取藥物資訊的模型。使用規則關係提取算法和藥物搜尋方法建立藥物知識圖,並與術語伺服器中的藥物匹配。結果顯示BERT-CRF模型在NER方面表現最佳,藥物搜尋方法匹配準確率達77%。建議將此模型應用為網路服務,改善醫療藥物管理。 PubMed DOI

研究指出,GPT-3.5和GPT-4處理臨床數據時,只需少量訓練數據即可提取有價值資訊。透過改進提示策略,可增進模型在臨床命名實體識別任務表現,減少大量標註數據需求。雖GPT模型在臨床應用有潛力,仍需進一步改進。研究結果凸顯了量身定制的提示框架重要性,以提高大型語言模型在臨床環境性能。 PubMed DOI

研究人員透過手動標註和深度學習技術,在生醫文獻中成功提取遺傳疾病相關資訊。他們標註了400篇文章,並達到高水準的準確度。使用BERT和DistilBERT模型進行訓練和測試,取得了優異的實體提取成果,特別是在變異實體的辨識上表現優異,與最先進的模型相當。 PubMed DOI

這項研究探討基於Transformer的命名實體識別(NER)模型,特別是標記級別與實體級別評估的差異。研究使用合成法語腫瘤報告數據集,對四個BERT模型進行微調,並評估其在兩個級別的表現。結果顯示,從標記級別轉向實體級別時,模型表現有明顯差異,強調了NER任務中評估方法的重要性。此外,雖然BERT模型表現不錯,但ChatGPT在識別法語複雜實體方面仍有挑戰。 PubMed DOI

這項研究探討大型語言模型(LLMs)在中文生物醫學命名實體識別(BNER)任務的表現,這領域的研究相對較少。作者評估了多個LLMs,包括ChatGLM2-6B、GLM-130B、GPT-3.5和GPT-4,使用真實的中文電子病歷數據集及公共數據集。結果顯示,雖然LLMs在零樣本和少樣本情境下有潛力,但經過指令微調後表現顯著提升。特別是微調後的ChatGLM2-6B在真實數據集上超越了專門模型,而GPT-3.5在CCKS2017數據集上表現最佳,但仍未超過頂尖專業模型DGAN。這是首個評估LLMs在中文BNER任務的研究,顯示其潛力並為未來應用提供指導。 PubMed DOI

最近在人工智慧(AI)領域,特別是大型語言模型(LLMs)如GPT-3.5和GPT-4,顯示出在醫療應用上的潛力。本研究探討將這些模型整合進良好實踐(GxP)驗證系統的可行性,重點在效能和可重複性。研究比較外部和內部託管的模型在命名實體識別(NER)和關係提取的表現,發現Zephyr-7b-beta模型在少樣本學習中表現優於GPT-3.5。儘管GPT-4的表現不錯,但在可重複性上仍有挑戰,建議利用GPT模型生成註釋提案作為微調訓練數據的基礎。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在從電子健康紀錄中提取數據的表現,使用了50份合成醫療筆記。共測試了18個LLM,並與基準模型RoBERTa比較,涵蓋多個任務。表現最佳的模型包括Claude 3.0 Opus、GPT 4等,準確率超過0.98,明顯優於RoBERTa的0.742。這些模型在多次測試中也展現出一致性,顯示出能有效協助數據提取,減輕醫療人員的負擔。不過,仍需用真實數據進一步驗證其實際應用效果。 PubMed DOI

這項研究專注於從文本中提取與COVID-19疫苗相關的不良事件資訊,對疫苗安全性監測至關重要。研究比較了大型語言模型(LLMs)和傳統深度學習模型的表現,並探討了模型集成的優勢。使用了VAERS、Twitter和Reddit的數據,識別疫苗、接種和不良事件等實體。多個模型經過微調,最佳集成結果顯示「疫苗」的F1分數為0.878,「接種」為0.930,「不良事件」為0.925,整體微平均F1分數為0.903。研究強調了微調和集成方法在提升性能上的重要性,推進了生物醫學領域的自然語言處理。 PubMed DOI

這項研究開發了MedScaleNER框架,旨在透過基於測量的護理改善病人結果,特別是在非結構化的中文醫學文獻中識別醫學量表相關實體。由於標註數據有限,命名實體識別(NER)面臨挑戰。該框架結合大型語言模型(LLMs)和提示策略,成功識別量表名稱及測量項目。初步實驗顯示,GLM-4-0520與MedScaleNER結合後,達到59.64%的宏觀F1分數,顯示出顯著的改進,並為未來的研究提供了寶貴的見解。 PubMed DOI

這項研究針對低資源語言,特別是愛沙尼亞語,開發命名實體識別(NER)模型,目的是從醫療記錄中提取重要的醫療實體。由於缺乏標註數據,作者提出三步驟方法:首先,利用本地訓練的GPT-2生成合成醫療數據;接著,使用GPT-3.5-Turbo和GPT-4對這些數據進行標註;最後,微調NER模型並測試真實醫療文本。研究結果顯示,藥物提取的F<sub>1</sub>分數為0.69,程序提取為0.38,顯示出在藥物識別上的有效性,並指出程序提取的挑戰。這方法為未來在其他語言的研究提供了新方向。 PubMed DOI