原始文章

CAS 是專為生醫關係抽取等有嚴格結構限制任務設計的資料增強框架,利用大型語言模型產生多樣且合規的資料,並用自我評估過濾器(SemQ)確保品質與一致性。CAS 能維持資料完整性,提升模型表現,適用於多種有約束的 NLP 任務。程式碼連結:https://github.com/ngogiahan149/CAS PubMed DOI


站上相關主題文章列表

這項研究專注於從非結構化的臨床筆記中提取與腫瘤學相關的結構化資訊,特別是癌症藥物與症狀負擔的關係。研究人員建立了名為CACER的資料集,包含超過48,000個醫療問題和藥物事件的詳細註解。經過微調的BERT和Llama3模型在事件提取上表現最佳,F1分數分別為88.2和88.0,而GPT-4在這些任務中的表現最差。這顯示微調模型在特定任務上更有效,CACER資料庫為未來的醫療資訊提取研究提供了重要資源。 PubMed DOI

檢索增強生成(RAG)透過從資料庫中檢索知識來提升大型語言模型(LLMs)的表現,但傳統方法在檢索句子或段落時可能會引入噪音。為了解決這個問題,我們提出了BiomedRAG框架,將自動檢索的區塊文件直接輸入LLM。經過在四個生物醫學自然語言處理任務和八個數據集的評估,BiomedRAG的表現平均提升了9.95%,並且在多項基準上達到最先進的結果,超越了4.97%。這個框架為生物醫學領域的LLM應用提供了更準確且可調整的方法。 PubMed DOI

在結構化資訊擷取(IE)領域,確保輸出符合語義和語法約束非常重要。傳統的編碼-解碼架構難以達成這些要求,因此研究者開始探索受語法約束的解碼方法。本研究檢視了微調的Longformer和Flan-T5模型在臨床試驗摘要中提取結構化資料的效果。結果顯示,受語法約束的解碼顯著提升了2型糖尿病和青光眼數據集的F1分數,而指標生成器則對性能造成負面影響。未來研究可探討大型語言模型的大小對這些解碼方法的影響。 PubMed DOI

這項研究針對分類中文醫學摘要的挑戰,對改善醫學資料庫的搜尋和文獻回顧非常重要。由於缺乏合適的數據集,我們生成了三個訓練數據集和一個測試數據集,以提升分類準確性。數據集 #1 來自 PubMed 的 15,000 條翻譯摘要,數據集 #2 和 #3 則是從 40,000 條中文醫學摘要中生成的。透過 SBERT 嵌入進行語義分析,我們的模型在分類效果上顯著提升,SBERT-DocSCAN 在數據集 #3 上達到最高準確率 91.30%。這項研究不僅生成了有價值的數據集,還證明了模型的有效性。 PubMed DOI

這項研究聚焦於醫療概念標準化(MCN),強調數據質量對其表現的重要性,並提出一個框架來提升數據質量,利用像ChatGPT這樣的大型語言模型。研究評估了MCN數據集的質量,並透過ChatGPT進行數據增強,分析生成數據的正確性。實驗探討數據質量對MCN模型的影響,並指出增強過程中的數據重複問題。最終,研究認為少樣本學習結合適當的上下文是提升MCN數據質量的有效方法,並提供了寶貴的見解。如需詳情,可參考提供的GitHub連結。 PubMed DOI

這篇論文探討生物醫學文本中的命名實體識別(NER)挑戰,特別是在數據稀缺的情況下。作者指出現有數據增強方法的不足,可能會影響語義,且忽略多尺度句子特徵。為了解決這些問題,他們提出利用ChatGPT生成多樣化的數據,並採用動態卷積捕捉多尺度語義,結合PubMedBERT增強特徵表示。實驗結果顯示,這種方法在四個生物醫學NER數據集上表現優於現有模型,顯示出在數據增強和模型泛化上的有效性。 PubMed DOI

傳統自動作文評分系統只看單字和句子,無法掌握文章結構和語意。我們提出結合多層次語言特徵的混合模型,利用大型語言模型提升作文連貫性和品質評估。實驗證明,我們的方法比現有技術更準確,有助提升學生寫作評量的公正性與精確度。 PubMed DOI

這項研究比較了多種大型語言模型(LLM)方法,把電子病歷的非結構化醫療文本標準化成臨床術語。結果發現,檢索增強生成(RAGnorm)方法表現最穩定、準確度最高,即使沒訓練資料也很有效。這類檢索型LLM在生醫文本標準化上很有潛力,值得持續發展與應用。 PubMed DOI

從電子健康紀錄擷取健康社會決定因素很難,因為資料多是非結構化且類別不均。作者把UMLS語意知識結合進大型語言模型,來產生更多訓練資料,特別補足資料較少的類別。這方法能提升模型擷取SDoH資訊的效果,並已在MIMIC-SDoH資料集上驗證有效。 PubMed

這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed