原始文章

這項研究用 teacher-student 深度學習架構,從電子病歷放射科報告中抓出癌症相關資訊。teacher 模型先在私院資料訓練,再標註公開或合成資料,讓 student 模型學習。結果發現,student 用同領域公開資料訓練效果最好,用不同領域或合成資料就不理想,顯示有關聯的公開資料對模型轉移和隱私保護很關鍵。 PubMed DOI


站上相關主題文章列表

這篇論文探討基因數據在疾病診斷與治療中的重要性,特別是癌症研究,並指出將這些數據整合進臨床護理的挑戰,如電子健康紀錄的結構、保險成本及基因結果的可解釋性。研究也提到人工智慧(AI)和大型語言模型(LLMs)在解決這些問題上的潛力。儘管AI在醫學研究中的成功有限,但基於大量數據訓練的LLMs在基因分析上顯示出希望。研究評估了GPT模型在基因表達數據的預測能力,並與傳統機器學習方法進行比較,以探討其在預測癌症亞型的潛力。 PubMed DOI

這項研究評估了專有與開放的大型語言模型(LLMs)在分析胰臟癌放射學報告的有效性,重點在於疾病的存在、位置及治療反應。研究分析了203份去識別化的報告,使用了GPT-4、GPT-3.5-turbo及開放模型如Gemma-7B和Llama3-8B。結果顯示,GPT-4在確定疾病狀態上準確率最高,達75.5%。開放模型在某些方面表現不如專有模型,但仍具潛力,特別是在專有模型無法使用時。這項研究為未來腫瘤學領域的LLM研究提供了重要資源。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究用大型語言模型(像是 Copilot、ChatGPT Plus、Perplexity Pro)生成227份腫瘤病理報告的合成資料集,涵蓋前列腺癌、肺癌和乳癌,惡性與良性比例平均。資料集經專業癌症登記員驗證,完全沒用到真實病患資料,可作為AI病理報告分類的標準測試集,兼顧隱私與可重現性。 PubMed DOI

這項研究發現,開源大型語言模型(LLMs)能準確從電子病歷的病理報告中,萃取癌症和異型增生等重要診斷,連複雜案例也適用。只用簡單「是/否」提示,在美國退伍軍人健康管理局資料庫中,診斷準確率超過93%。這方法不但省資源、設定簡單,還能大規模應用,對臨床和研究都很有幫助。 PubMed DOI

這項研究用大型LLM產生合成資料,來訓練較小的開源模型,讓它們在臨床紀錄資訊擷取上表現接近大型模型。8B參數的模型幾乎和70B一樣好,且只針對難題微調也有效。這方法能降低運算需求、保護隱私,適合在本地硬體上應用。 PubMed DOI

這項研究評估7種大型語言模型產生的14萬筆合成電子健康紀錄,發現模型越大,資料越完整,但性別和種族偏見也越明顯。性別偏見多反映現實疾病分布,種族偏見則不一致,部分模型高估White或Black患者,低估Hispanic和Asian族群。研究強調AI健康資料需兼顧準確性與公平性,並呼籲建立更完善的偏見評估標準。 PubMed DOI

AI大型語言模型正改變癌症研究,能協助資料擷取、分析、病患配對及多元資料整合,讓流程更有效率、決策更快速。不過,資料隱私、準確性、成本和法規等問題,還是需要特別注意。 PubMed DOI

這篇研究發現,ChatGPT在臨床專業有限時,能協助產生乳癌研究用的合成資料,但資料品質很依賴提示語設計和產生方法。要讓合成資料在醫療研究中可靠,必須重視有效的提示語設計和謹慎的資料合成技術。 PubMed

這項研究比較五款主流大型語言模型解讀胸部CT報告的能力,發現GPT-4表現最佳,尤其在選擇題上最準確。微調後的GPT-3.5-Turbo也有明顯進步。整體來說,選擇題比開放式問答更容易答對。不同疾病和器官系統的結果有差異。結果顯示,優化後的AI模型有助於提升胸部CT解讀,對外科手術規劃很有幫助。 PubMed DOI