原始文章

這項研究評估了GPT-4在診斷罕見疾病的表現,使用了5,267份以phenopackets格式整理的案例報告。研究旨在克服以往樣本量小和主觀評估的問題。結果顯示,GPT-4的正確診斷平均倒數排名(MRR)為0.24,表示在19.2%的案例中正確診斷排名第一,28.6%排名前三,32.5%排名前十。這是迄今對大型語言模型在罕見疾病診斷的最大分析,提供了更真實的能力評估。 PubMed DOI


站上相關主題文章列表

這項研究評估了GPT-4在模擬情境中,協助患者、家庭醫生和初級眼科醫師辨識罕見眼科疾病的潛力。GPT-4在提供適當回應方面表現出令人鼓舞的結果,尤其對於家庭醫生和初級眼科醫師而言。儘管它有助於診斷罕見眼疾的潛力,仍建議謹慎行事,並在臨床環境中進行驗證。 PubMed DOI

這項研究比較了使用臨床案例來診斷和分類健康狀況時,人工智慧GPT-4與醫師的準確性。結果顯示,GPT-4和醫師在診斷準確性和分類適當性方面表現相似。GPT-4的表現不因患者種族和族裔而有所不同。這表明GPT-4在改善醫療系統中患者診斷和分類效率方面可能會有所幫助。 PubMed DOI

研究比較了最新的人工智慧模型 GPT-4 與前身 GPT-3.5 在81個複雜醫學案例的表現。GPT-4 在主要診斷準確率達38.3%,在不同診斷方面提高至71.6%。它在84.0%的案例提出主要診斷建議,大多數領域優於GPT-3.5,除了藥物反應。GPT-4 在感染性疾病和藥物反應方面表現優異,但在認知障礙案例中稍差。總的來說,GPT-4 在準確診斷、全面不同診斷和適當調查方面展現潛力,雖然表現因醫學專業領域而略有不同。 PubMed DOI

研究用醫院病歷數據評估GPT-4和PaLM2的診斷準確度,結果發現GPT-4達93.9%,PaLM2為84.7%。顯示人工智慧可協助減少診斷錯誤,但仍需人類監督。整合AI到醫療面臨道德、責任和監管挑戰。 PubMed DOI

研究比較了大型語言模型(LLMs)在臨床案例診斷上的表現,發現GPT4比GPT3.5更準確且提供更專業的診斷列表。然而,兩者仍有可能漏掉最可能的診斷。研究建議LLMs像GPT4可擴展診斷考慮範圍,但需改進以更符合疾病發生率和文獻。 PubMed DOI

這項研究比較了GPT-4和經驗豐富的醫生在診斷臨床案例的準確性。對於未發表的挑戰性案例,GPT-4的前六個診斷準確率達61.1%,超過醫生的49.1%。在常見情境中,GPT-4的前三個診斷100%正確,而醫生則為84.3%。這顯示GPT-4在內科表現上至少與經驗醫生相當,甚至更佳,特別是在挑戰性案例中。不過,對常見案例的高準確率可能與這些案例是模型訓練數據的一部分有關。 PubMed DOI

這項研究介紹了一個名為RareDxGPT的增強版ChatGPT,專門用於診斷罕見疾病。雖然單一罕見疾病的發病率低,但全球約有4億人受到影響,診斷時間可長達五年。RareDxGPT整合了717種罕見疾病的資料,並採用檢索增強生成(RAG)方法進行分析。研究結果顯示,RareDxGPT在各種提示下的準確率均高於標準的ChatGPT 3.5,顯示出其在協助診斷罕見疾病方面的潛力。 PubMed DOI

在急診部門,快速且準確的診斷對病人結果和醫療效率非常重要。本研究評估了ChatGPT-3.5和ChatGPT-4在根據急診入院前24小時的電子健康紀錄生成鑑別診斷清單的表現。結果顯示,兩者在預測身體系統層級的診斷上都相當準確,GPT-4稍優於GPT-3.5,但在具體診斷類別上表現不一,精確度較低。值得注意的是,GPT-4在幾個關鍵類別中展現了更高的準確性,顯示其在處理複雜臨床情況上的優勢。 PubMed DOI

這項研究探討大型語言模型(LLMs)在診斷罕見遺傳疾病中的應用,特別是基於表型的基因優先排序。研究比較了五種LLMs,結果顯示GPT-4的表現最佳,能在前50個預測中準確識別17.0%的診斷基因,但仍低於傳統方法。雖然較大的模型通常表現較好,先進技術如檢索增強生成並未提升準確性,但精緻的提示改善了任務完整性。整體而言,這些發現顯示LLMs在基因組分析中的潛力與限制,對臨床應用有重要影響。 PubMed DOI

診斷罕見兒科疾病相當具挑戰性,因為這些疾病的表現複雜。本研究評估了三種大型語言模型(LLMs)的診斷表現:GPT-4、Gemini Pro,以及一個整合Human Phenotype Ontology的自訂模型(GPT-4 HPO),針對61個罕見疾病進行分析。結果顯示,GPT-4的準確率為13.1%,而GPT-4 HPO和Gemini Pro均為8.2%。特別是GPT-4 HPO在鑑別診斷和疾病分類上表現較佳。這些結果顯示大型語言模型在診斷支持上有潛力,但仍需改進以便更好地融入臨床實踐。 PubMed DOI