原始文章

這項研究比較了幾款中型開源語言模型在去除法文臨床紀錄個資的表現,重點是能在一般電腦上運作。結果發現,Mistral 7B 微調後表現最好,準確率高達0.97,且幾乎不會改動原文內容。這方法能有效保護病患隱私,讓臨床資料更安全地用於醫療研究和系統優化。 PubMed DOI


站上相關主題文章列表

這項研究介紹了一個開源流程,利用本地的大型語言模型(LLM)"Llama 2" 從臨床文本中提取定量數據,專注於識別失代償性肝硬化的特徵。研究在MIMIC IV數據集中測試500名患者的病歷,成功識別五個關鍵臨床特徵,敏感度達100%,特異度96%。此外,對其他病症的檢測也相當高,顯示出本地部署的LLM在提取臨床信息方面的有效性,且硬體需求低。 PubMed DOI

這項研究分析了不同的自然語言處理(NLP)模型和大型語言模型(LLM)在放射科報告中匿名化個人健康資訊(PHI)的效果,並遵循HIPAA法規。研究發現,兩個NLP模型成功移除了所有日期、醫療紀錄號碼和檢查號碼,而LLM在日期的移除效果較差。針對準確性優化的NLP模型表現最佳,達到完美的F1分數。研究結論指出,預訓練的NLP模型在不影響臨床數據的情況下,更有效地進行匿名化,LLM則可能意外刪除重要資訊,強調了可靠的PHI匿名化對醫療應用的重要性。 PubMed DOI

這項研究探討了變壓器語言模型在臨床文件中識別敏感資訊的應用,解決了數據保護和手動去識別化的挑戰。研究人員使用1,130名患者的10,240份德國醫院文件,對一個德國的ELECTRA模型進行微調,以提升敏感數據檢測的表現。他們制定了標註指導方針,並將模型表現與100份手動標註的測試集進行比較。經過微調的gELECTRA模型達到F1宏觀平均分數0.95,超越人類標註者的0.93,顯示出其在真實臨床數據處理中的有效性。 PubMed DOI

這項研究顯示,GPT-4在去識別化臨床筆記和生成合成數據方面,比GPT-3.5更有效,對於保護病人隱私非常重要。透過API存取和零樣本提示,GPT-4的表現相當出色,精確度達0.9925,召回率0.8318,F1分數0.8973,準確率0.9911。這些結果顯示,GPT-4能顯著提升臨床數據的安全性,並促進其在研究中的應用,為醫療數據管理中平衡數據效用與隱私樹立了新標準。 PubMed DOI

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI

開源大型語言模型能準確擷取心臟超音波報告的重點資料,像是瓣膜疾病嚴重度和人工瓣膜有無,對建立大規模資料庫和疾病監控很有幫助。經過優化後,像Llama3.0-70B、Qwen2.0這些頂尖模型準確率超過98%,但處理速度較慢。小型模型判斷嚴重度較不準,但辨識人工瓣膜還不錯。主要錯誤來自分心或沒照指示。整體來說,LLMs自動化擷取資料很有潛力,但要兼顧準確和效率。 PubMed DOI

這項研究用大型LLM產生合成資料,來訓練較小的開源模型,讓它們在臨床紀錄資訊擷取上表現接近大型模型。8B參數的模型幾乎和70B一樣好,且只針對難題微調也有效。這方法能降低運算需求、保護隱私,適合在本地硬體上應用。 PubMed DOI

這篇研究發現,大型語言模型(LLMs)雖然有潛力協助找出醫療紀錄中容易被忽略的間接病人識別資訊,但目前標記出來的很多其實是誤判。要真正把LLMs用在去識別化流程,還需要更多研究,才能確保病人隱私,同時又能安全分享醫療資料。 PubMed DOI

這篇論文提出 HELP-ME 三階段架構,能系統性評估並保護醫療大型語言模型的病患隱私,不會影響模型效能。它用提示詞檢測隱私問題,並透過混淆技術保護資料。實驗證明,HELP-ME 在真實醫療資料上能有效守護隱私,同時維持高診斷準確率,是醫療 LLMs 的實用安全方案。 PubMed DOI

這項研究提出用大型語言模型(LLM)來測試去識別化工具的隱私保護效果。結果發現,即使是先進工具,仍有9%病患紀錄被重新識別,顯示現有方法有漏洞。這方法有助於找出弱點,讓未來生醫資料分享更安全。 PubMed