原始文章

這項研究比較了三層級的分診協議,包括分診護士、急診醫師和人工智慧模型(ChatGPT、Gemini 和 Pi),在2024年4月1日至4月7日於一所三級醫療機構的急診部門進行,分析了500名病人的數據。結果顯示,只有23.8%的病人獲得一致分類,分診護士對6.4%的病人過度分診,且人工智慧模型的分診不足率偏高,特別是ChatGPT在黃碼和紅碼病人中分診不足達26.5%和42.6%。結論指出,急診環境中不應僅依賴人工智慧進行分診。 PubMed DOI


站上相關主題文章列表

人工智慧公司致力改進聊天機器人,讓它能更貼近人類對話。研究發現OpenAI的ChatGPT在急診醫學分類上表現不錯,對高危病例的預測尤其準確,有助於辨識重症護理需求。雖然還有些許過度或不足分類的情況,但隨著更多醫學訓練,ChatGPT的準確性將會提升。 PubMed DOI

2022年11月推出的ChatGPT原型讓人工智慧更容易取得,但一項研究發現,使用加拿大分級和急性評估量表進行患者分類的急診醫師發現ChatGPT不可靠。研究顯示,ChatGPT在不同情境下的表現不穩定,可能無法在重要任務中提供準確和一致的資訊。 PubMed DOI

研究評估了在醫療環境中使用人工智慧技術ChatGPT進行急診部分流程的可靠性。結果顯示人類評分員和ChatGPT有中等程度的一致性,新版本表現更好。ChatGPT展示了在急診醫療環境中提高分流準確性的潛力,特別是在經驗有限的人員情況下。 PubMed DOI

這項研究探討使用人工智慧,特別是基於GPT-4的ChatGPT,來預測急診部的分流結果。研究涉及比較AI工具所做的決策與急診醫學專家的決策,專家的決策被視為黃金標準。結果顯示AI工具與專家之間有高度一致性,顯示ChatGPT有潛力有效地協助病人的分流。 PubMed DOI

Chat-GPT被討論用於醫療,但研究顯示在急診室中,醫護人員比Chat-GPT更準確評估病情風險。目前Chat-GPT尚無法取代人類專業知識,顯示AI在此領域仍需進一步提升。 PubMed DOI

研究比較了GPT-4、Gemini和急診醫學專家在使用ESI評估急診患者。結果發現,GPT-4正確率最高,Gemini過度分類最多,醫學專家低分類最多。GPT-4和Gemini在危急患者分類上表現較好,整體而言GPT-4效果更佳。研究建議,GPT-4和Gemini等人工智慧模型可協助急診室準確分類患者。 PubMed DOI

ChatGPT是一個由AI驅動的工具,用來協助門診分流。研究顯示,ChatGPT與手動分流結果高度一致,專家對其回答大多給予正面評價。另外,一項涵蓋45名患者的研究也顯示ChatGPT表現優異。ChatGPT的回答專業、全面且人性化,有助於改善治療時間、診斷,並緩解醫療人力不足問題,讓患者受益。 PubMed DOI

研究評估LLMs和ChatGPT在急診室分流的效果,與受訓與否的人員比較。結果顯示LLMs和ChatGPT表現不錯,但沒有超越專業人員。雖然在此研究中未顯著改善未受訓醫生的工作,但新LLMs版本經更多訓練後有潛力提升。 PubMed DOI

這項研究探討了ChatGPT在急診部門使用緊急嚴重指數(ESI)進行病人分診的效果。研究對象為18歲以上、24小時內來急診的病人,收集了年齡、性別、主訴和生命徵象等資料。五位專家根據ESI標準評估病人緊急程度,並與ChatGPT的評估結果進行比較。 結果顯示,專家與ChatGPT之間的協議程度中等,Cohen's Kappa值為0.659,準確率76.6%。在高急迫性類別中,協議程度更強,顯示ChatGPT在識別高急迫性病人方面具有效能,顯示人工智慧在急診分診中的潛力。 PubMed DOI

這項研究探討了緊急情境中的分診決策,對比醫療專業人員與人工智慧(AI)模型的表現。研究發現,醫療人員的準確率(30.7%)高於AI模型(25.5%),顯示人類專業知識在分診中仍然更可靠。研究涉及50個虛擬病人情境,參與者使用土耳其衛生部的顏色編碼系統進行分類。雖然AI能快速分析數據,但在此情境下表現不如人類。作者建議結合AI與人類專業知識,以提升分診系統的效率。 PubMed DOI