原始文章

這篇回顧分析52篇合成健康紀錄(SHRs)研究,涵蓋醫療文本、時間序列和縱向資料。多數研究聚焦於隱私保護,也有解決資料不平衡、稀缺和補值問題。結果顯示,縱向資料以對抗式網路最佳,時間序列適合機率模型,醫療文本則以大型語言模型表現最優。目前最大缺口是缺乏有效評估合成資料再識別風險的方法。 PubMed DOI


站上相關主題文章列表

電子健康紀錄(EHRs)與大型語言模型(LLMs)結合使用時,隱私挑戰不容忽視。雖然GDPR和HIPAA提供基本保護,但仍需具體策略來降低風險。可採用以下方法: 1. **本地部署LLMs**:在設備上運行,確保健康數據不外洩。 2. **合成數據生成**:創建模擬數據,保護病人隱私。 3. **差分隱私**:在數據中添加噪音,防止推斷個人信息。 4. **去識別化**:移除可識別信息,遵守隱私法規。 透過這些策略,組織能在利用生成式AI的同時,強化病人隱私保護。 PubMed DOI

這項研究探討使用OpenAI的GPT-4o生成合成臨床數據,以解決隱私法規和數據稀缺的問題。研究分為兩個階段:第一階段根據13個臨床參數創建了6,166個案例的結構化數據集,數據合理且準確;第二階段則利用真實的圍手術期數據集VitalDB生成數據,結果顯示92.31%的參數與VitalDB相似,且大多數參數間無顯著差異。研究顯示GPT-4o能有效生成反映實際臨床數據的合成數據,未來應進一步提高數據真實性並探索大型語言模型的潛力。 PubMed DOI

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI

與藥物相關的傷害對全球醫療成本和病人結果影響深遠。生成式人工智慧(GenAI)和大型語言模型(LLM)在降低這些風險上展現潛力。本次回顧分析了2012年1月到2024年10月的文獻,找到3988篇文章,最終納入30篇。GenAI和LLM的應用可分為三個領域:識別藥物相互作用、提供臨床決策支持及增強藥物監測。雖然這些模型在早期識別不良藥物事件上有潛力,但尚缺乏前瞻性測試,需進一步研究其整合與實際應用。 PubMed DOI

醫療數據整合很難,因為格式和標準不一,現有的資料通用模型常會造成資訊遺失且維護困難。生成式AI(像大型語言模型)有機會直接分析原始數據,減少對CDM的依賴。知識圖譜則能標準化資料關聯,保留完整性。未來應聚焦生成式AI如何解決這些整合難題,同時注意隱私和資安。 PubMed DOI

生成式AI能根據學到的知識,創造新穎且逼真的資料,對提升肌肉骨骼醫療影像品質、自動化紀錄、手術規劃和個人化溝通很有幫助。不過,目前臨床應用還有幻覺、偏誤、倫理和透明度等挑戰需克服。 PubMed DOI

這篇文章用簡單易懂的方式,介紹生成式AI在醫療上的應用,像是合成資料、臨床紀錄和診斷輔助等。雖然這些技術很有潛力,但目前還有知識落差、虛構內容、偏見、透明度不足和法規倫理等問題。作者強調,生成式AI不會取代醫師,但醫療人員了解這些工具很重要。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

這篇綜述主要討論 RAG 技術如何應用在醫療領域的大型語言模型,並整理現有資料集、技術和評估方式。多數研究用英文或中文資料,且偏好 GPT-3.5/4 這類專有模型。現階段缺乏統一的評估標準,對倫理問題的討論也不夠。未來需要更多研究,確保 RAG 在醫療應用上既安全又有效。 PubMed DOI

這篇研究用 Bio_ClinicalBERT 等預訓練語言模型,提出產生去識別化合成臨床信件的方法。結果顯示,僅有編碼器的模型表現較佳,只要保留臨床實體,一般模型也能媲美專用模型。遮罩停用詞有助提升品質,遮罩名詞或動詞則會降低品質。BERTScore 是最佳評估指標。偶爾的幻覺對臨床應用影響不大。程式碼和模型已開源。 PubMed DOI