原始文章

這篇論文比較BERT和Mistral在自動化ICD-10死亡證明書編碼的表現,發現Mistral經微調後,特別在處理罕見代碼時,比BERT更優秀,顯示Mistral更適合提升醫療自動編碼的準確率。 PubMed DOI


站上相關主題文章列表

這項研究探討了使用先進的大型語言模型,如ChatGPT 3.5和ChatGPT 4,來提升醫療紀錄中ICD-10代碼的分類準確性,特別是針對現有方法識別為假陰性的紀錄。研究在MIMIC IV數據集的802份出院摘要上進行,結果顯示ChatGPT 4的匹配率為86%到89%,明顯優於ChatGPT 3.5的57%到67%。雖然經驗豐富的人類編碼員表現更佳,但ChatGPT 4的準確性已達到人類編碼員的中位數。這顯示將這類模型整合進臨床編碼中,能提升醫療文檔的準確性,特別在複雜案例中。 PubMed DOI

這篇論文評估了不同微調的生成大型語言模型(LLMs)在臨床領域的零樣本命名實體識別(NER)表現。研究在第八屆生物醫學聯結註解黑客松進行,重點分析Llama 2和Mistral模型,並比較其基本版本與針對特定任務微調的版本。使用的數據集標註了疾病、症狀和醫療程序。結果顯示,經過指示微調的模型在實體識別上表現優於聊天微調和基本模型,且在要求簡單輸出結構時表現也有所提升。 PubMed DOI

這項研究探討了如何利用大型語言模型GPT-4來協助醫療編碼員進行ICD-10編碼。研究目的是透過關鍵詞識別來增強編碼過程,並採用檢索增強生成(RAG)方法。使用的CodiEsp-X數據集包含1000個西班牙臨床案例及其編碼,並創建了專注於關鍵詞的CodiEsp-X-lead數據集。雖然關鍵詞提取的F1分數達到0.80,但整體可解釋性F1分數僅為0.305,顯示出編碼分配的效果不佳。未來研究應著重於改善系統與醫療編碼員的工作流程對接,以提高準確性。 PubMed DOI

這項研究探討自動ICD編碼的挑戰,對保險理賠和疾病研究非常重要。由於臨床筆記複雜且變化多,手動編碼常常慢且易出錯。為了提升大型語言模型(LLMs)的表現,作者提出了一個微調框架,結合標籤注意機制、醫學知識注入及知識驅動的抽樣。實驗結果顯示,這個框架在MIMIC-III-50數據集上表現優於傳統微調方法,特別是在編碼器-解碼器模型中,準確率和F1分數都有顯著提升。 PubMed DOI

這項研究用BERT語言模型結合框架語意學,能自動從德文乳房攝影報告中擷取並結構化資訊。經過醫院資料微調後,系統能準確辨識多種事實和實體,表現比Llama 3.3更好。這方法可客製化、保護隱私且易於解釋,有助推動放射科結構化報告。未來建議在不同資料集驗證其泛用性。 PubMed DOI

這項研究發現,只要善用提示工程技巧,即使沒特別微調,公開的大型語言模型也能協助癌症登記編碼。結合RAG系統和思路鏈推理後,肺癌個案的編碼準確率大幅提升,顯示LLMs有助於提升登記人員的效率和精確度。 PubMed DOI

用ICD-10資料微調大型語言模型後,自動醫療編碼的準確度大幅提升。模型在代碼與描述配對的精確率從不到1%躍升到97%;應用在臨床紀錄上,精確匹配率達69.2%,分類匹配率87.2%。這能有效減少人工處理時間和錯誤。 PubMed DOI

**重點整理:** 這篇研究比較了一個大型語言模型(LLaMA3.1)和一個基於BERT的模型,在德文醫療文本中的命名實體辨識(NER)表現,特別著重在訓練資料有限的情況下。兩個模型的表現相近,但在訓練資料較少時,LLaMA3.1的表現略優於BERT-based模型。 PubMed DOI

這項研究用7,903筆放射腫瘤科資料微調LLaMA2-7B和Mistral-7B模型,提升它們在治療建議、治療選擇和ICD-10診斷預測三大任務的表現。微調後模型的準確度和臨床相關性都明顯進步,超過六成AI產生的治療方案被醫師認可,顯示未來在臨床應用上很有潛力。 PubMed DOI

這項研究發現,微調過的BERT模型在分類病人安全事件報告時,比傳統CNN模型更能準確辨識罕見事件和嚴重程度,且在新資料上也有不錯表現。即使資料量少或分布不均,BERT只用預設參數就能有很好的效果,顯示其在醫療文本分類上相當有潛力。 PubMed DOI