原始文章

這項研究用 teacher-student 深度學習架構,從電子病歷放射科報告中抓出癌症相關資訊。teacher 模型先在私院資料訓練,再標註公開或合成資料,讓 student 模型學習。結果發現,student 用同領域公開資料訓練效果最好,用不同領域或合成資料就不理想,顯示有關聯的公開資料對模型轉移和隱私保護很關鍵。 PubMed DOI


站上相關主題文章列表

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究用大型語言模型(像是 Copilot、ChatGPT Plus、Perplexity Pro)生成227份腫瘤病理報告的合成資料集,涵蓋前列腺癌、肺癌和乳癌,惡性與良性比例平均。資料集經專業癌症登記員驗證,完全沒用到真實病患資料,可作為AI病理報告分類的標準測試集,兼顧隱私與可重現性。 PubMed DOI

這項研究發現,開源大型語言模型(LLMs)能準確從電子病歷的病理報告中,萃取癌症和異型增生等重要診斷,連複雜案例也適用。只用簡單「是/否」提示,在美國退伍軍人健康管理局資料庫中,診斷準確率超過93%。這方法不但省資源、設定簡單,還能大規模應用,對臨床和研究都很有幫助。 PubMed DOI

這項研究用大型LLM產生合成資料,來訓練較小的開源模型,讓它們在臨床紀錄資訊擷取上表現接近大型模型。8B參數的模型幾乎和70B一樣好,且只針對難題微調也有效。這方法能降低運算需求、保護隱私,適合在本地硬體上應用。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

AI大型語言模型正改變癌症研究,能協助資料擷取、分析、病患配對及多元資料整合,讓流程更有效率、決策更快速。不過,資料隱私、準確性、成本和法規等問題,還是需要特別注意。 PubMed DOI

這篇研究發現,ChatGPT在臨床專業有限時,能協助產生乳癌研究用的合成資料,但資料品質很依賴提示語設計和產生方法。要讓合成資料在醫療研究中可靠,必須重視有效的提示語設計和謹慎的資料合成技術。 PubMed

這項研究比較五款主流大型語言模型解讀胸部CT報告的能力,發現GPT-4表現最佳,尤其在選擇題上最準確。微調後的GPT-3.5-Turbo也有明顯進步。整體來說,選擇題比開放式問答更容易答對。不同疾病和器官系統的結果有差異。結果顯示,優化後的AI模型有助於提升胸部CT解讀,對外科手術規劃很有幫助。 PubMed DOI

這項研究提出結合特徵摘要、思路鏈推理和混合型RAG架構的新提示工程方法,能提升大型語言模型判讀胸部CT報告、診斷肺部疾病的準確度。用2,965份報告測試,結果比傳統深度學習和其他提示法更準,外部驗證也表現優異。此方法不僅提升可解釋性,也有助臨床更精確診斷。 PubMed DOI

這項研究用7,903筆放射腫瘤科資料微調LLaMA2-7B和Mistral-7B模型,提升它們在治療建議、治療選擇和ICD-10診斷預測三大任務的表現。微調後模型的準確度和臨床相關性都明顯進步,超過六成AI產生的治療方案被醫師認可,顯示未來在臨床應用上很有潛力。 PubMed DOI