原始文章

這篇研究發現,大型語言模型(LLMs)雖然有潛力協助找出醫療紀錄中容易被忽略的間接病人識別資訊,但目前標記出來的很多其實是誤判。要真正把LLMs用在去識別化流程,還需要更多研究,才能確保病人隱私,同時又能安全分享醫療資料。 PubMed DOI


站上相關主題文章列表

電子健康紀錄(EHRs)與大型語言模型(LLMs)結合使用時,隱私挑戰不容忽視。雖然GDPR和HIPAA提供基本保護,但仍需具體策略來降低風險。可採用以下方法: 1. **本地部署LLMs**:在設備上運行,確保健康數據不外洩。 2. **合成數據生成**:創建模擬數據,保護病人隱私。 3. **差分隱私**:在數據中添加噪音,防止推斷個人信息。 4. **去識別化**:移除可識別信息,遵守隱私法規。 透過這些策略,組織能在利用生成式AI的同時,強化病人隱私保護。 PubMed DOI

這項研究探討開源大型語言模型(LLMs)在從電子健康紀錄(EHRs)中提取社會健康決定因素(SDoH)數據的效果。研究隨機選取200名患者,並由兩位審查者手動標記九個SDoH方面,達成93%的高一致性。結果顯示,LLMs的表現明顯優於基準模型,特別是在識別明確提及的SDoH方面。最佳模型openchat_3.5在所有SDoH方面的準確率最高。研究強調進一步精煉和專業訓練的潛力,以提升LLMs在臨床研究中的應用,最終改善醫療結果。 PubMed DOI

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI

這項研究顯示大型語言模型(LLMs)在診斷罕見疾病方面的潛力,因為這些疾病因發病率低且表現多樣而難以識別。研究分析了152個來自中國醫學案例資料庫的案例,並比較了四個LLMs(ChatGPT-4o、Claude 3.5 Sonnet、Gemini Advanced和Llama 3.1 405B)與人類醫師的診斷準確性。結果顯示,LLMs的表現超越人類醫師,Claude 3.5 Sonnet的準確率達78.9%,而人類醫師僅26.3%。這顯示LLMs在臨床上可能成為有價值的工具,但在實際應用前仍需進一步驗證及考量倫理與隱私問題。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

大型語言模型在醫療文件撰寫和決策輔助上很有潛力,但因準確性、驗證、偏見和隱私等問題,現階段還不適合完全自動化臨床應用。未來要安全有效導入,需加強研究、訂定明確規範,並維持人工監督。 PubMed DOI

這篇研究比較專有和開源大型語言模型在臨床文本中做 token-level 罕見疾病命名實體識別的表現。研究發現,雖然用了多種技術,LLMs 在這類任務上還是有不少困難,並針對醫療應用提出改進建議。 PubMed

這項研究提出用大型語言模型(LLM)來測試去識別化工具的隱私保護效果。結果發現,即使是先進工具,仍有9%病患紀錄被重新識別,顯示現有方法有漏洞。這方法有助於找出弱點,讓未來生醫資料分享更安全。 PubMed

這項研究比較了幾款中型開源語言模型在去除法文臨床紀錄個資的表現,重點是能在一般電腦上運作。結果發現,Mistral 7B 微調後表現最好,準確率高達0.97,且幾乎不會改動原文內容。這方法能有效保護病患隱私,讓臨床資料更安全地用於醫療研究和系統優化。 PubMed DOI

大部分醫療紀錄都是非結構化,讓資料分析很困難。這項研究測試九種大型語言模型,能自動從兒科臨床報告擷取結構化資料。不論是商業還是開源模型,表現都很優秀,最好的模型辨識重要病患資訊的準確率超過九成。LLMs為醫療資料擷取提供靈活又準確的替代方案,有機會取代人工處理。 PubMed DOI