原始文章

這項研究評估了ChatGPT 4.0在急診部門進行病人分診的效果,並與人類分診人員進行比較。分析了2,658名病人的數據,結果顯示AI與人類的分診協議程度較低(kappa = 0.125)。在人類分診預測30天死亡率和生命救援需求方面,表現明顯優於AI(ROC分別為0.88對0.70及0.98對0.87)。這顯示雖然AI有潛力,但在急診分診中仍不如人類可靠,特別是對高風險病人的評估。 PubMed DOI


站上相關主題文章列表

2022年11月推出的ChatGPT原型讓人工智慧更容易取得,但一項研究發現,使用加拿大分級和急性評估量表進行患者分類的急診醫師發現ChatGPT不可靠。研究顯示,ChatGPT在不同情境下的表現不穩定,可能無法在重要任務中提供準確和一致的資訊。 PubMed DOI

研究評估了在醫療環境中使用人工智慧技術ChatGPT進行急診部分流程的可靠性。結果顯示人類評分員和ChatGPT有中等程度的一致性,新版本表現更好。ChatGPT展示了在急診醫療環境中提高分流準確性的潛力,特別是在經驗有限的人員情況下。 PubMed DOI

這項研究探討使用人工智慧,特別是基於GPT-4的ChatGPT,來預測急診部的分流結果。研究涉及比較AI工具所做的決策與急診醫學專家的決策,專家的決策被視為黃金標準。結果顯示AI工具與專家之間有高度一致性,顯示ChatGPT有潛力有效地協助病人的分流。 PubMed DOI

Chat-GPT被討論用於醫療,但研究顯示在急診室中,醫護人員比Chat-GPT更準確評估病情風險。目前Chat-GPT尚無法取代人類專業知識,顯示AI在此領域仍需進一步提升。 PubMed DOI

ChatGPT是一個由AI驅動的工具,用來協助門診分流。研究顯示,ChatGPT與手動分流結果高度一致,專家對其回答大多給予正面評價。另外,一項涵蓋45名患者的研究也顯示ChatGPT表現優異。ChatGPT的回答專業、全面且人性化,有助於改善治療時間、診斷,並緩解醫療人力不足問題,讓患者受益。 PubMed DOI

研究評估LLMs和ChatGPT在急診室分流的效果,與受訓與否的人員比較。結果顯示LLMs和ChatGPT表現不錯,但沒有超越專業人員。雖然在此研究中未顯著改善未受訓醫生的工作,但新LLMs版本經更多訓練後有潛力提升。 PubMed DOI

這項研究探討了ChatGPT在急診部門使用緊急嚴重指數(ESI)進行病人分診的效果。研究對象為18歲以上、24小時內來急診的病人,收集了年齡、性別、主訴和生命徵象等資料。五位專家根據ESI標準評估病人緊急程度,並與ChatGPT的評估結果進行比較。 結果顯示,專家與ChatGPT之間的協議程度中等,Cohen's Kappa值為0.659,準確率76.6%。在高急迫性類別中,協議程度更強,顯示ChatGPT在識別高急迫性病人方面具有效能,顯示人工智慧在急診分診中的潛力。 PubMed DOI

這項研究探討了ChatGPT在模擬災難病人分診的有效性,使用了391個病人案例和九個提示進行測試,總共產生了35,190次模擬分診。結果顯示,99.7%的查詢得到了有效的START評分,但變異性顯著。準確性為63.9%,過度分診率32.9%,不足分診率3.1%。研究結論指出,ChatGPT在醫療分診中表現不佳,提醒在臨床使用AI工具時需謹慎,並強調進行嚴謹的統計評估的重要性。 PubMed DOI

這項研究比較了三層級的分診協議,包括分診護士、急診醫師和人工智慧模型(ChatGPT、Gemini 和 Pi),在2024年4月1日至4月7日於一所三級醫療機構的急診部門進行,分析了500名病人的數據。結果顯示,只有23.8%的病人獲得一致分類,分診護士對6.4%的病人過度分診,且人工智慧模型的分診不足率偏高,特別是ChatGPT在黃碼和紅碼病人中分診不足達26.5%和42.6%。結論指出,急診環境中不應僅依賴人工智慧進行分診。 PubMed DOI

這項研究探討了人工智慧工具,如ChatGPT和Copilot,在繁忙的急診科進行病人分診的效果。研究持續一週,結果顯示護士的分診準確率為65.2%,而ChatGPT和Copilot分別為66.5%和61.8%,三者差異不大。不過,兩個AI工具在識別高危病人方面表現明顯優於護士。研究指出,AI能提升分診準確性,特別是對緊急病例的識別,並強調急診科即時容量數據的重要性。 PubMed DOI