原始文章

這篇回顧分析52篇合成健康紀錄(SHRs)研究,涵蓋醫療文本、時間序列和縱向資料。多數研究聚焦於隱私保護,也有解決資料不平衡、稀缺和補值問題。結果顯示,縱向資料以對抗式網路最佳,時間序列適合機率模型,醫療文本則以大型語言模型表現最優。目前最大缺口是缺乏有效評估合成資料再識別風險的方法。 PubMed DOI


站上相關主題文章列表

這項研究系統性回顧了生成性大型語言模型(LLMs)在臨床環境,特別是電子健康紀錄(EHRs)的應用。儘管自然語言處理技術進步,LLMs在臨床實踐中的整合仍有限,面臨多重挑戰。研究分析了自2023年以來的76篇相關文獻,發現包括提示工程的使用、少數多模態數據的應用、評估指標的多樣性,以及臨床決策中的偏見和幻覺等問題。未來需改進計算技術和標準化評估,以提升LLMs在醫療中的可靠性。總之,LLMs在病人護理上有潛力,但仍需克服重大障礙。 PubMed DOI

隨著醫療保健對先進分析的需求增加,合成健康數據的使用變得愈加重要,尤其是在獲取真實健康數據的挑戰下。大型語言模型(LLMs)的進展為生成合成健康數據提供了新機會,但也帶來潛在風險。本文綜述了合成健康數據生成(SHDG)及LLM的研究,探討生成對抗網絡等機器學習模型的現狀與局限性。SHDG面臨的挑戰包括評估指標、數據效率、健康公平等,雖然LLMs在某些方面顯示潛力,但深入研究其優缺點仍然至關重要。 PubMed DOI

這項研究探討使用臨床筆記進行研究時,去識別化和合成數據生成在隱私保護上的有效性。主要發現包括: 1. 去識別化的臨床筆記無法完全防止成員推斷攻擊,可能洩露特定數據。 2. 開發了一種新方法,利用大型語言模型生成合成臨床筆記。 3. 合成筆記在臨床任務中的表現與真實筆記相似。 4. 雖然合成筆記表現良好,但仍面臨與真實筆記相似的隱私問題。 研究建議需進一步探索合成臨床筆記的替代方法,以提升隱私保障。 PubMed DOI

電子健康紀錄(EHRs)與大型語言模型(LLMs)結合使用時,隱私挑戰不容忽視。雖然GDPR和HIPAA提供基本保護,但仍需具體策略來降低風險。可採用以下方法: 1. **本地部署LLMs**:在設備上運行,確保健康數據不外洩。 2. **合成數據生成**:創建模擬數據,保護病人隱私。 3. **差分隱私**:在數據中添加噪音,防止推斷個人信息。 4. **去識別化**:移除可識別信息,遵守隱私法規。 透過這些策略,組織能在利用生成式AI的同時,強化病人隱私保護。 PubMed DOI

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI

生成式AI能根據學到的知識,創造新穎且逼真的資料,對提升肌肉骨骼醫療影像品質、自動化紀錄、手術規劃和個人化溝通很有幫助。不過,目前臨床應用還有幻覺、偏誤、倫理和透明度等挑戰需克服。 PubMed DOI

這篇文章用簡單易懂的方式,介紹生成式AI在醫療上的應用,像是合成資料、臨床紀錄和診斷輔助等。雖然這些技術很有潛力,但目前還有知識落差、虛構內容、偏見、透明度不足和法規倫理等問題。作者強調,生成式AI不會取代醫師,但醫療人員了解這些工具很重要。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

這篇綜述主要討論 RAG 技術如何應用在醫療領域的大型語言模型,並整理現有資料集、技術和評估方式。多數研究用英文或中文資料,且偏好 GPT-3.5/4 這類專有模型。現階段缺乏統一的評估標準,對倫理問題的討論也不夠。未來需要更多研究,確保 RAG 在醫療應用上既安全又有效。 PubMed DOI

這篇研究用 Bio_ClinicalBERT 等預訓練語言模型,提出產生去識別化合成臨床信件的方法。結果顯示,僅有編碼器的模型表現較佳,只要保留臨床實體,一般模型也能媲美專用模型。遮罩停用詞有助提升品質,遮罩名詞或動詞則會降低品質。BERTScore 是最佳評估指標。偶爾的幻覺對臨床應用影響不大。程式碼和模型已開源。 PubMed DOI