原始文章

最近生成對抗網絡(GANs)和大型語言模型(LLMs)的進展,提升了醫療數據的生成與增強,對機器學習應用至關重要,尤其在數據隱私受到關注的情況下。研究評估了多種合成數據生成(SDG)方法的有效性,並以隨機森林為基準,分析其在下游任務中的表現。結果顯示,統計方法如synthpop在各種情況下表現優於深度學習方法,特別是在小型數據集上。研究強調特徵與目標變量的相關性對模型效用影響更大,synthpop顯示出更高的穩健性。 PubMed DOI


站上相關主題文章列表

這篇論文介紹了FairPlay,一種新穎的合成數據生成方法,利用大型語言模型來解決臨床結果預測中的挑戰,特別是針對不平衡數據集和公平治療的需求。FairPlay生成現實且匿名的合成病人數據,改善代表性並增強數據集,提升算法性能,減少預測偏見,並保持隱私。實驗結果顯示,FairPlay顯著提升死亡預測的F1分數,最高可提高21%,且有效縮小不同子群體的性能差距,展現出一致的改善。 PubMed DOI

這項研究探討使用OpenAI的GPT-4o生成合成臨床數據,以解決隱私法規和數據稀缺的問題。研究分為兩個階段:第一階段根據13個臨床參數創建了6,166個案例的結構化數據集,數據合理且準確;第二階段則利用真實的圍手術期數據集VitalDB生成數據,結果顯示92.31%的參數與VitalDB相似,且大多數參數間無顯著差異。研究顯示GPT-4o能有效生成反映實際臨床數據的合成數據,未來應進一步提高數據真實性並探索大型語言模型的潛力。 PubMed DOI

這項研究探討如何將電子健康紀錄(EHRs)與自然語言處理(NLP)及大型語言模型(LLMs)結合,以改善醫療數據管理和病人照護。研究使用MIMIC III數據集,採用GPT-3.5、GPT-4等模型生成符合HIPAA要求的合成病人紀錄。結果顯示,基於關鍵字的方法在隱私保護上風險較低,且保持良好性能,建議未來可考慮使用虛擬的PHI來提升實用性與隱私保護。 PubMed DOI

最新研究發現,GPT-4能生成極為逼真的假醫療數據,甚至足以支持虛假科學論點。經過特製調整後,AI產生的數據更難被識破,部分甚至被誤認為真實資料。這讓人擔心AI未來可能被用來偽造科學研究,對學術誠信造成威脅。 PubMed DOI

這篇文章用簡單易懂的方式,介紹生成式AI在醫療上的應用,像是合成資料、臨床紀錄和診斷輔助等。雖然這些技術很有潛力,但目前還有知識落差、虛構內容、偏見、透明度不足和法規倫理等問題。作者強調,生成式AI不會取代醫師,但醫療人員了解這些工具很重要。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

這篇回顧分析52篇合成健康紀錄(SHRs)研究,涵蓋醫療文本、時間序列和縱向資料。多數研究聚焦於隱私保護,也有解決資料不平衡、稀缺和補值問題。結果顯示,縱向資料以對抗式網路最佳,時間序列適合機率模型,醫療文本則以大型語言模型表現最優。目前最大缺口是缺乏有效評估合成資料再識別風險的方法。 PubMed DOI

我們用 AWS 和 Azure 上的生成式 AI(GPT-3.5、Flan T5-XL)來產生病患系統的合成問卷資料,提升測試效率和覆蓋率。過程中遇到技術、溝通和資源挑戰,尤其在資料真實感和測試限制間要取得平衡。建議一開始就共識評估指標、明確設計 persona 和提示詞,並建立彈性測試框架。 PubMed

這篇研究發現,ChatGPT在臨床專業有限時,能協助產生乳癌研究用的合成資料,但資料品質很依賴提示語設計和產生方法。要讓合成資料在醫療研究中可靠,必須重視有效的提示語設計和謹慎的資料合成技術。 PubMed

這篇研究用 Bio_ClinicalBERT 等預訓練語言模型,提出產生去識別化合成臨床信件的方法。結果顯示,僅有編碼器的模型表現較佳,只要保留臨床實體,一般模型也能媲美專用模型。遮罩停用詞有助提升品質,遮罩名詞或動詞則會降低品質。BERTScore 是最佳評估指標。偶爾的幻覺對臨床應用影響不大。程式碼和模型已開源。 PubMed DOI