原始文章

這項研究專注於從文本中提取與COVID-19疫苗相關的不良事件資訊,對疫苗安全性監測至關重要。研究比較了大型語言模型(LLMs)和傳統深度學習模型的表現,並探討了模型集成的優勢。使用了VAERS、Twitter和Reddit的數據,識別疫苗、接種和不良事件等實體。多個模型經過微調,最佳集成結果顯示「疫苗」的F1分數為0.878,「接種」為0.930,「不良事件」為0.925,整體微平均F1分數為0.903。研究強調了微調和集成方法在提升性能上的重要性,推進了生物醫學領域的自然語言處理。 PubMed DOI


站上相關主題文章列表

這項研究評估了多種大型語言模型(LLMs)在從電子健康紀錄中提取數據的表現,使用了50份合成醫療筆記。共測試了18個LLM,並與基準模型RoBERTa比較,涵蓋多個任務。表現最佳的模型包括Claude 3.0 Opus、GPT 4等,準確率超過0.98,明顯優於RoBERTa的0.742。這些模型在多次測試中也展現出一致性,顯示出能有效協助數據提取,減輕醫療人員的負擔。不過,仍需用真實數據進一步驗證其實際應用效果。 PubMed DOI

基於變壓器的語言模型在自然語言處理上有顯著進展,但在臨床環境中識別藥物不良事件的有效性受到非標準語言的挑戰。研究中,九個預訓練的模型在5,088對藥物-AE數據上微調,並在新加坡的去識別化出院摘要及MIMIC-III數據庫進行驗證。結果顯示,BioM-ELECTRA-Large-BiLSTM模型的F1分數比傳統機器學習提高了16.1%。透過應用規則精煉預測,假陽性減少,精確度提升。整體而言,這些模型在識別因果相關藥物-AE對方面表現優於傳統方法,但仍需額外規則以克服限制。 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ChatGPT 和 Gemini,對自免疫接種後不良事件(AEFIs)因果關係的自動評估能力,特別針對 COVID-19 疫苗相關的心肌炎和心包炎。分析了美國疫苗不良事件報告系統(VAERS)中的 150 例案例。結果顯示,ChatGPT 的遵循度較高(34%),而 Gemini 僅為 7%。ChatGPT 與人類專家的中度一致性為 71%,而 Gemini 則為 53%。雖然兩者在識別 AEFIs 時都有困難,但 ChatGPT 的表現明顯優於 Gemini,更適合作為人類專業知識的輔助工具。 PubMed DOI

這項研究針對低資源語言,特別是愛沙尼亞語,開發命名實體識別(NER)模型,目的是從醫療記錄中提取重要的醫療實體。由於缺乏標註數據,作者提出三步驟方法:首先,利用本地訓練的GPT-2生成合成醫療數據;接著,使用GPT-3.5-Turbo和GPT-4對這些數據進行標註;最後,微調NER模型並測試真實醫療文本。研究結果顯示,藥物提取的F<sub>1</sub>分數為0.69,程序提取為0.38,顯示出在藥物識別上的有效性,並指出程序提取的挑戰。這方法為未來在其他語言的研究提供了新方向。 PubMed DOI

這項研究探討了從電子病歷中檢測肺栓塞不良事件的挑戰,並開發了一個利用大型語言模型的框架。研究回顧了2017至2022年間的病歷,發現40例肺栓塞不良事件,流行率為0.4%。框架包含證據提取、出院資訊提取和PEAE檢測三個模組,評估了四個開源模型,結果顯示高敏感性和特異性。研究強調關鍵字過濾和出院摘要的納入能改善性能,並建議未來應加強上下文理解和醫學術語解釋,以提升檢測能力。 PubMed DOI

大數據與人工智慧在醫療保健中結合,特別是透過電子健康紀錄(EHR)的分析,能顯著提升診斷準確性。然而,處理大量非結構化數據是一大挑戰。本研究探討大型語言模型(LLMs)在分類含排版錯誤的EHR文本的有效性。研究以哈哲特佩大學的兒科急診室數據為例,經微調的GPT-3模型在識別呼吸道感染病例上達到99.88%準確率,顯著優於預訓練模型的78.54%。結果顯示,微調的LLMs能高效分類非結構化EHR數據,提升醫療數據處理的效率與可靠性。 PubMed DOI

這項研究探討COVID-19疫苗與不良事件的關聯,數據來自疫苗不良事件報告系統(VAERS)及社交媒體如Twitter和Reddit。分析了771對關聯,識別不同疫苗接種後的不良事件模式。使用了先進模型如GPT-3.5、GPT-4等進行關聯提取,並透過後處理規則精煉結果。經微調的GPT-3.5達到0.94的精確度和1的召回率。主要疫苗接種後常見的不良事件有手臂酸痛、疲勞和頭痛,而加強針則報告了更多不良事件,顯示大型語言模型在疫苗安全監測中的潛力。 PubMed DOI

這項研究發現,規則式系統 BioMedICUS 在從臨床紀錄擷取 COVID-19 症狀的準確度和族群公平性上,都比大型語言模型(LLaMA2-13B、LLaMA3-8B)表現更好。不過,LLMs 在某些情境下也有優勢。整體來說,LLMs 在公平性和泛化能力上還有待加強,未來需提升訓練資料和標註品質。 PubMed DOI

這項研究發現,Llama-3 這類大型語言模型能比傳統方法更有效率地從疫苗仿單中擷取和分析不良事件。透過文字嵌入和分群,能更細緻掌握不良事件特徵,並用邏輯迴歸準確預測疫苗類型,準確率超過八成。顯示 LLMs 在疫苗安全分析和公共衛生研究上很有潛力。 PubMed DOI

這篇研究比較專有和開源大型語言模型在臨床文本中做 token-level 罕見疾病命名實體識別的表現。研究發現,雖然用了多種技術,LLMs 在這類任務上還是有不少困難,並針對醫療應用提出改進建議。 PubMed