原始文章

TrialSieve 是一套新架構,專門從臨床文獻中萃取生醫資訊,採用分層、以治療組為主的圖形結構,比傳統 PICO 更有效率。它推出含 1609 篇 PubMed 摘要、20 種實體類型的標註資料集,並測試多種 NLP 模型,發現 BioLinkBERT 和 PubMedBERT 表現最好。這套架構也讓人工標註更快更準,有助於自動化生醫資訊萃取。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)在提升病人與臨床試驗(CTs)匹配的應用,並以資訊檢索為框架。研究開發了一個多階段檢索管道,結合BM25、Transformer排名器及LLM方法,數據來自TREC臨床試驗2021-23。結果顯示,微調的LLM在查詢形成、過濾及重新排名上表現優於傳統方法,提升了識別合格試驗的有效性。雖然LLMs具競爭力,但計算成本較高,效率降低。未來研究應聚焦於優化成本與檢索有效性之間的平衡。 PubMed DOI

實體與關係的聯合提取在資訊擷取中非常重要,尤其是在生物醫學文獻中。本文提出的模型有效解決了句內和句間的提取問題,對於長文本中的長距離依賴關係至關重要。模型結合了多種深度學習技術,如微調的BERT、圖卷積網絡、穩健學習及局部正則化條件隨機場,能準確識別生物醫學文本中的實體,並提取三元組關係。實驗結果顯示該模型在多個數據集上表現優異,促進了生物醫學知識圖譜的構建。相關代碼可在GitHub上獲取。 PubMed DOI

這項研究探討了使用開源大型語言模型Llama 3,分析2018至2023年間去中心化臨床試驗(DCTs)的趨勢,並解決試驗登記中術語不標準的問題。研究人員從ClinicalTrials.gov獲取數據,使用三個不同版本的Llama 3模型進行DCT分類和提取去中心化元素。結果顯示,微調模型能提高敏感性,但正確預測值較低,需專注於DCT術語。最終識別出692個DCT,主要為第二期試驗,顯示大型語言模型在分析非結構化臨床數據的潛力,並強調管理模型偏見的重要性。 PubMed DOI

這項研究針對分類中文醫學摘要的挑戰,對改善醫學資料庫的搜尋和文獻回顧非常重要。由於缺乏合適的數據集,我們生成了三個訓練數據集和一個測試數據集,以提升分類準確性。數據集 #1 來自 PubMed 的 15,000 條翻譯摘要,數據集 #2 和 #3 則是從 40,000 條中文醫學摘要中生成的。透過 SBERT 嵌入進行語義分析,我們的模型在分類效果上顯著提升,SBERT-DocSCAN 在數據集 #3 上達到最高準確率 91.30%。這項研究不僅生成了有價值的數據集,還證明了模型的有效性。 PubMed DOI

這項研究發現,開源大型語言模型(LLM)在從腫瘤臨床試驗描述中萃取基因生物標記資訊,並將試驗資料結構化方面,表現比GPT-4等封閉模型更好。即使沒特別調整,開源模型就很厲害,經過微調後準確度還能再提升。這有助於病患媒合合適的臨床試驗。 PubMed DOI

這項研究比較多款AI工具在藥廠和醫療領域的文獻回顧及法規文件撰寫表現,發現ELISE在準確度、推理和合規性都勝過其他工具,最適合高風險應用。不過,人工監督還是不可或缺,AI只能輔助專家,不能完全取代專業審查。 PubMed DOI

這篇文獻回顧指出,大型語言模型(LLMs)已被用來提升病患與臨床試驗配對的效率,尤其是OpenAI的模型。雖然LLMs能大幅提升配對準確度與規模,但目前仍面臨可靠性、可解釋性及過度依賴合成資料等問題。未來應加強模型調校、採用真實世界資料,並提升可解釋性,才能真正發揮其潛力。 PubMed DOI

這項研究開發了一套AI預篩選流程,把複雜的臨床試驗納入標準拆成簡單問題,並結合兩種大型語言模型來判斷病人資格。這系統不只準確率高、速度快,還能保障資料安全,特別適合資源有限的醫療單位,有助於提升肝病臨床試驗的招募效率。 PubMed DOI

這項研究用小型transformer和GPT-4o模型來分類醫學文獻,判斷是不是RCT和是否跟腫瘤學有關,兩種方法的準確率都很高,尤其是RCT分類F1分數超過0.9。之後再用簡單規則式,準確找出腫瘤學RCT的腫瘤類型,讓後續專業處理更有效率。 PubMed DOI

我們開發了一套用大型語言模型(LLMs)自動分類腫瘤臨床試驗和文獻的系統,在多個資料集和任務上都表現優異,準確率超過94%、F1-score超過92%,回應有效性最高達99.88%。雖然還有提示敏感度和運算資源的挑戰,但未來LLMs有望成為醫學文獻分類的重要工具。 PubMed DOI