原始文章

這篇論文介紹了FairPlay,一種新穎的合成數據生成方法,利用大型語言模型來解決臨床結果預測中的挑戰,特別是針對不平衡數據集和公平治療的需求。FairPlay生成現實且匿名的合成病人數據,改善代表性並增強數據集,提升算法性能,減少預測偏見,並保持隱私。實驗結果顯示,FairPlay顯著提升死亡預測的F1分數,最高可提高21%,且有效縮小不同子群體的性能差距,展現出一致的改善。 PubMed DOI


站上相關主題文章列表

在家庭照護中運用機器學習辨識健康問題對成效至關重要。研究指出,透過GPT-4生成虛擬患者-護士對話資料並自動標記問題,結合真實與虛擬資料,機器學習分類器在辨識健康問題上有更佳表現。這項研究凸顯了虛擬資料在醫療分析中的潛力,對提升家庭照護患者複雜病況問題檢測的準確性與效率有所助益。 PubMed DOI

大型語言模型(LLMs),像是GPT-3.5-turbo和GPT-4,對醫療專業人員有潛在的協助能力,但可能帶有訓練數據中的偏見,影響其在醫療情境中的有效性。本研究分析這些模型在預測住院、費用和死亡率時的表現,發現它們對白人族群的預測較高,且在困難醫療情況下過於樂觀。這些偏見反映了醫療不平等,強調了進一步研究的必要性,以減少語言模型中的偏見,確保所有病患都能獲得公平和準確的醫療結果。 PubMed DOI

這項研究探討使用OpenAI的GPT-4o生成合成臨床數據,以解決隱私法規和數據稀缺的問題。研究分為兩個階段:第一階段根據13個臨床參數創建了6,166個案例的結構化數據集,數據合理且準確;第二階段則利用真實的圍手術期數據集VitalDB生成數據,結果顯示92.31%的參數與VitalDB相似,且大多數參數間無顯著差異。研究顯示GPT-4o能有效生成反映實際臨床數據的合成數據,未來應進一步提高數據真實性並探索大型語言模型的潛力。 PubMed DOI

這項研究針對低資源語言,特別是愛沙尼亞語,開發命名實體識別(NER)模型,目的是從醫療記錄中提取重要的醫療實體。由於缺乏標註數據,作者提出三步驟方法:首先,利用本地訓練的GPT-2生成合成醫療數據;接著,使用GPT-3.5-Turbo和GPT-4對這些數據進行標註;最後,微調NER模型並測試真實醫療文本。研究結果顯示,藥物提取的F<sub>1</sub>分數為0.69,程序提取為0.38,顯示出在藥物識別上的有效性,並指出程序提取的挑戰。這方法為未來在其他語言的研究提供了新方向。 PubMed DOI

最近生成對抗網絡(GANs)和大型語言模型(LLMs)的進展,提升了醫療數據的生成與增強,對機器學習應用至關重要,尤其在數據隱私受到關注的情況下。研究評估了多種合成數據生成(SDG)方法的有效性,並以隨機森林為基準,分析其在下游任務中的表現。結果顯示,統計方法如synthpop在各種情況下表現優於深度學習方法,特別是在小型數據集上。研究強調特徵與目標變量的相關性對模型效用影響更大,synthpop顯示出更高的穩健性。 PubMed DOI

這項研究探討了生成式人工智慧模型中的偏見,特別是這些偏見如何影響醫療環境中的臨床決策。研究使用OpenAI的GPT-4模擬醫生在資源有限的情況下選擇病人。結果顯示,醫生在種族、性別、年齡等方面存在顯著偏見,男性醫生偏好男性病人,女性醫生則偏好女性病人。此外,政治立場和性取向也影響醫生的選擇。研究強調,若不採取適當措施,這些偏見可能對病人結果造成不利影響。 PubMed DOI

AI在醫療上雖能提升治療效果,但也常因資料不夠多元、邊緣族群代表性不足而產生偏見和不平等。為了確保公平,需用多元資料、修正偏見,並讓團隊更包容,同時推動公平審查、透明流程及國際合作,才能打造真正公平的醫療AI。 PubMed DOI

近期LLM在醫療應用上進步很快,但輸入多餘的社經細節(如種族、收入、LGBT+身份)可能讓結果產生偏見,甚至加劇健康不平等。為此,作者提出EquityGuard框架,能偵測並減少這些不公平風險,實驗證明能讓不同族群獲得更公平的醫療建議。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

這篇回顧分析52篇合成健康紀錄(SHRs)研究,涵蓋醫療文本、時間序列和縱向資料。多數研究聚焦於隱私保護,也有解決資料不平衡、稀缺和補值問題。結果顯示,縱向資料以對抗式網路最佳,時間序列適合機率模型,醫療文本則以大型語言模型表現最優。目前最大缺口是缺乏有效評估合成資料再識別風險的方法。 PubMed DOI