原始文章

這項研究用模擬病人測試ChatGPT(GPT-4o和GPT-4-Turbo)在急診分級和門診指引的表現。經過優化後,GPT-4-Turbo用MEWS分級達到100%準確率,優於GPT-4o(96.2%);GPT-4o在門診科別選擇也有92.6%高準確率,且情感回應更好。結果顯示,經設計的ChatGPT能有效協助急診分級與指引,但還需更多臨床驗證。 PubMed DOI


站上相關主題文章列表

這項研究比較了三層級的分診協議,包括分診護士、急診醫師和人工智慧模型(ChatGPT、Gemini 和 Pi),在2024年4月1日至4月7日於一所三級醫療機構的急診部門進行,分析了500名病人的數據。結果顯示,只有23.8%的病人獲得一致分類,分診護士對6.4%的病人過度分診,且人工智慧模型的分診不足率偏高,特別是ChatGPT在黃碼和紅碼病人中分診不足達26.5%和42.6%。結論指出,急診環境中不應僅依賴人工智慧進行分診。 PubMed DOI

這項研究探討了使用ChatGPT作為醫學教育中的標準化病人,特別是在病史採集方面。研究分為兩個階段:第一階段評估其可行性,模擬炎症性腸病的對話並將回應分為好、中、差三類。第二階段則評估其擬人化、臨床準確性和適應性,並調整提示以增強回應。 結果顯示,ChatGPT能有效區分不同質量的回應,經過修訂的提示使其準確性提高了4.926倍。整體而言,研究表明ChatGPT可作為模擬醫學評估的工具,並有潛力改善醫學訓練。 PubMed DOI

這項研究評估了ChatGPT在根據院前病患照護報告預測診斷的準確性,結果顯示其正確率為75%。在診斷不一致的情況下,急診醫師認為救護人員在約23%的案例中更可能正確。值得注意的是,只有一個案例中AI的診斷可能對病患造成危險,顯示風險極低。總體來看,雖然ChatGPT的準確率穩定,但它常建議比救護人員更嚴重的診斷,可能導致過度分流的情況。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這項研究評估了ChatGPT 4.0在急診部門進行病人分診的效果,並與人類分診人員進行比較。分析了2,658名病人的數據,結果顯示AI與人類的分診協議程度較低(kappa = 0.125)。在人類分診預測30天死亡率和生命救援需求方面,表現明顯優於AI(ROC分別為0.88對0.70及0.98對0.87)。這顯示雖然AI有潛力,但在急診分診中仍不如人類可靠,特別是對高風險病人的評估。 PubMed DOI

這項回顧性研究評估了不同ChatGPT模型(如GPT-3.5、GPT-4等)在預測急診病人診斷的表現。研究針對30名病人,發現GPT-3.5在前三名鑑別診斷的準確率高達80%,但主要診斷的準確率僅47.8%。較新的模型如chatgpt-4o-latest在主要診斷的準確率提升至60%。要求模型提供推理過程也有助於改善表現。不過,所有模型在處理非典型案例時仍面臨挑戰,顯示其在急診環境中的應用限制。 PubMed DOI

這項多中心研究發現,ChatGPT-4o在急診分級的表現整體優於人類分級人員,和急診專科醫師的判斷高度一致(kappa 0.833,F1 0.897)。不過,在醫學中心處理較複雜的急診個案時,ChatGPT的準確度會下降。總結來說,ChatGPT在大多數情境下都很準確,但遇到複雜病例還是有進步空間。 PubMed DOI

這項研究用ChatGPT/GPT-4和翻譯軟體,快速製作三種常見急診主訴的AI出院衛教手冊。八位急診醫師給予高分評價,但部分內容還需修正。手冊可讀性約在高中到大學程度,可能有高估。AI能有效產出衛教資料,但仍需人工審核,未來還要研究對病人的實際幫助及擴展應用。 PubMed DOI

這篇綜述指出,ChatGPT 4 在急診室主要能協助語言生成和行政工作,但在複雜醫療決策上還不夠穩定。現有實證有限且結果不一,顯示這領域還在發展。新版 ChatGPT 有進步,未來應用值得期待。文中也提供急診醫師現階段的實用操作建議。 PubMed DOI

這項研究發現,ChatGPT-4o 在小兒急診診斷上表現比醫師還好,甚至連複雜案例也能大多答對。先進的聊天機器人有潛力協助醫師處理急診,但應該當作輔助工具,不能取代醫師,且需訂出明確的 AI 與醫師合作流程。 PubMed DOI