原始文章

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI


站上相關主題文章列表

電子健康紀錄(EHRs)與大型語言模型(LLMs)結合使用時,隱私挑戰不容忽視。雖然GDPR和HIPAA提供基本保護,但仍需具體策略來降低風險。可採用以下方法: 1. **本地部署LLMs**:在設備上運行,確保健康數據不外洩。 2. **合成數據生成**:創建模擬數據,保護病人隱私。 3. **差分隱私**:在數據中添加噪音,防止推斷個人信息。 4. **去識別化**:移除可識別信息,遵守隱私法規。 透過這些策略,組織能在利用生成式AI的同時,強化病人隱私保護。 PubMed DOI

這項研究著重於建立安全的基礎設施,以便在醫療保健中使用大型語言模型(LLMs),特別針對數據安全和病人隱私的問題,並確保符合HIPAA規範。研究團隊在私有的Azure OpenAI Studio上部署,提供安全的API端點,並測試了兩個應用:從電子健康紀錄中檢測跌倒,以及評估心理健康預測中的偏見。這個框架成功確保了病人隱私,讓研究人員能安全處理敏感數據,為醫療機構提供可擴展的解決方案。 PubMed DOI

這項研究顯示,GPT-4在去識別化臨床筆記和生成合成數據方面,比GPT-3.5更有效,對於保護病人隱私非常重要。透過API存取和零樣本提示,GPT-4的表現相當出色,精確度達0.9925,召回率0.8318,F1分數0.8973,準確率0.9911。這些結果顯示,GPT-4能顯著提升臨床數據的安全性,並促進其在研究中的應用,為醫療數據管理中平衡數據效用與隱私樹立了新標準。 PubMed DOI

這項研究探討使用OpenAI的GPT-4o生成合成臨床數據,以解決隱私法規和數據稀缺的問題。研究分為兩個階段:第一階段根據13個臨床參數創建了6,166個案例的結構化數據集,數據合理且準確;第二階段則利用真實的圍手術期數據集VitalDB生成數據,結果顯示92.31%的參數與VitalDB相似,且大多數參數間無顯著差異。研究顯示GPT-4o能有效生成反映實際臨床數據的合成數據,未來應進一步提高數據真實性並探索大型語言模型的潛力。 PubMed DOI

大型語言模型在醫療應用潛力大,但也帶來資安風險,像是病患隱私外洩、資料被竄改等。文章強調,開發和部署時一定要落實資安措施,才能保障病患資料安全。 PubMed DOI

這篇回顧分析52篇合成健康紀錄(SHRs)研究,涵蓋醫療文本、時間序列和縱向資料。多數研究聚焦於隱私保護,也有解決資料不平衡、稀缺和補值問題。結果顯示,縱向資料以對抗式網路最佳,時間序列適合機率模型,醫療文本則以大型語言模型表現最優。目前最大缺口是缺乏有效評估合成資料再識別風險的方法。 PubMed DOI

這篇研究發現,大型語言模型(LLMs)雖然有潛力協助找出醫療紀錄中容易被忽略的間接病人識別資訊,但目前標記出來的很多其實是誤判。要真正把LLMs用在去識別化流程,還需要更多研究,才能確保病人隱私,同時又能安全分享醫療資料。 PubMed DOI

這篇論文提出 HELP-ME 三階段架構,能系統性評估並保護醫療大型語言模型的病患隱私,不會影響模型效能。它用提示詞檢測隱私問題,並透過混淆技術保護資料。實驗證明,HELP-ME 在真實醫療資料上能有效守護隱私,同時維持高診斷準確率,是醫療 LLMs 的實用安全方案。 PubMed DOI

這項研究提出用大型語言模型(LLM)來測試去識別化工具的隱私保護效果。結果發現,即使是先進工具,仍有9%病患紀錄被重新識別,顯示現有方法有漏洞。這方法有助於找出弱點,讓未來生醫資料分享更安全。 PubMed

這項研究比較了幾款中型開源語言模型在去除法文臨床紀錄個資的表現,重點是能在一般電腦上運作。結果發現,Mistral 7B 微調後表現最好,準確率高達0.97,且幾乎不會改動原文內容。這方法能有效保護病患隱私,讓臨床資料更安全地用於醫療研究和系統優化。 PubMed DOI