原始文章

這項研究提出用大型語言模型(LLM)來測試去識別化工具的隱私保護效果。結果發現,即使是先進工具,仍有9%病患紀錄被重新識別,顯示現有方法有漏洞。這方法有助於找出弱點,讓未來生醫資料分享更安全。 PubMed


站上相關主題文章列表

這項研究介紹了一個開源流程,利用本地的大型語言模型(LLM)"Llama 2" 從臨床文本中提取定量數據,專注於識別失代償性肝硬化的特徵。研究在MIMIC IV數據集中測試500名患者的病歷,成功識別五個關鍵臨床特徵,敏感度達100%,特異度96%。此外,對其他病症的檢測也相當高,顯示出本地部署的LLM在提取臨床信息方面的有效性,且硬體需求低。 PubMed DOI

大型語言模型(LLMs)在醫療領域展現出改善診斷和病人照護的潛力,但對抗性攻擊使其脆弱,可能導致嚴重後果。本研究分析了LLMs在三個醫療任務中對兩種對抗性攻擊的易受攻擊性,發現無論是開源還是專有模型,都容易被操控。特定領域任務需更多對抗性數據來微調模型,雖然添加這些數據對整體性能影響不大,但改變了模型權重,顯示出檢測和減輕攻擊的潛力。這強調了在醫療應用中加強LLMs安全措施的必要性。 PubMed DOI

這項研究分析了不同的自然語言處理(NLP)模型和大型語言模型(LLM)在放射科報告中匿名化個人健康資訊(PHI)的效果,並遵循HIPAA法規。研究發現,兩個NLP模型成功移除了所有日期、醫療紀錄號碼和檢查號碼,而LLM在日期的移除效果較差。針對準確性優化的NLP模型表現最佳,達到完美的F1分數。研究結論指出,預訓練的NLP模型在不影響臨床數據的情況下,更有效地進行匿名化,LLM則可能意外刪除重要資訊,強調了可靠的PHI匿名化對醫療應用的重要性。 PubMed DOI

這項研究探討使用臨床筆記進行研究時,去識別化和合成數據生成在隱私保護上的有效性。主要發現包括: 1. 去識別化的臨床筆記無法完全防止成員推斷攻擊,可能洩露特定數據。 2. 開發了一種新方法,利用大型語言模型生成合成臨床筆記。 3. 合成筆記在臨床任務中的表現與真實筆記相似。 4. 雖然合成筆記表現良好,但仍面臨與真實筆記相似的隱私問題。 研究建議需進一步探索合成臨床筆記的替代方法,以提升隱私保障。 PubMed DOI

電子健康紀錄(EHRs)與大型語言模型(LLMs)結合使用時,隱私挑戰不容忽視。雖然GDPR和HIPAA提供基本保護,但仍需具體策略來降低風險。可採用以下方法: 1. **本地部署LLMs**:在設備上運行,確保健康數據不外洩。 2. **合成數據生成**:創建模擬數據,保護病人隱私。 3. **差分隱私**:在數據中添加噪音,防止推斷個人信息。 4. **去識別化**:移除可識別信息,遵守隱私法規。 透過這些策略,組織能在利用生成式AI的同時,強化病人隱私保護。 PubMed DOI

這項研究顯示,GPT-4在去識別化臨床筆記和生成合成數據方面,比GPT-3.5更有效,對於保護病人隱私非常重要。透過API存取和零樣本提示,GPT-4的表現相當出色,精確度達0.9925,召回率0.8318,F1分數0.8973,準確率0.9911。這些結果顯示,GPT-4能顯著提升臨床數據的安全性,並促進其在研究中的應用,為醫療數據管理中平衡數據效用與隱私樹立了新標準。 PubMed DOI

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

這篇研究發現,大型語言模型(LLMs)雖然有潛力協助找出醫療紀錄中容易被忽略的間接病人識別資訊,但目前標記出來的很多其實是誤判。要真正把LLMs用在去識別化流程,還需要更多研究,才能確保病人隱私,同時又能安全分享醫療資料。 PubMed DOI

這篇論文提出 HELP-ME 三階段架構,能系統性評估並保護醫療大型語言模型的病患隱私,不會影響模型效能。它用提示詞檢測隱私問題,並透過混淆技術保護資料。實驗證明,HELP-ME 在真實醫療資料上能有效守護隱私,同時維持高診斷準確率,是醫療 LLMs 的實用安全方案。 PubMed DOI