原始文章

這項研究探討了緊急情境中的分診決策,對比醫療專業人員與人工智慧(AI)模型的表現。研究發現,醫療人員的準確率(30.7%)高於AI模型(25.5%),顯示人類專業知識在分診中仍然更可靠。研究涉及50個虛擬病人情境,參與者使用土耳其衛生部的顏色編碼系統進行分類。雖然AI能快速分析數據,但在此情境下表現不如人類。作者建議結合AI與人類專業知識,以提升分診系統的效率。 PubMed DOI


站上相關主題文章列表

人工智慧公司致力改進聊天機器人,讓它能更貼近人類對話。研究發現OpenAI的ChatGPT在急診醫學分類上表現不錯,對高危病例的預測尤其準確,有助於辨識重症護理需求。雖然還有些許過度或不足分類的情況,但隨著更多醫學訓練,ChatGPT的準確性將會提升。 PubMed DOI

2022年11月推出的ChatGPT原型讓人工智慧更容易取得,但一項研究發現,使用加拿大分級和急性評估量表進行患者分類的急診醫師發現ChatGPT不可靠。研究顯示,ChatGPT在不同情境下的表現不穩定,可能無法在重要任務中提供準確和一致的資訊。 PubMed DOI

這項研究探討使用人工智慧,特別是基於GPT-4的ChatGPT,來預測急診部的分流結果。研究涉及比較AI工具所做的決策與急診醫學專家的決策,專家的決策被視為黃金標準。結果顯示AI工具與專家之間有高度一致性,顯示ChatGPT有潛力有效地協助病人的分流。 PubMed DOI

Chat-GPT被討論用於醫療,但研究顯示在急診室中,醫護人員比Chat-GPT更準確評估病情風險。目前Chat-GPT尚無法取代人類專業知識,顯示AI在此領域仍需進一步提升。 PubMed DOI

研究比較了GPT-3.5和GPT-4與人類醫師在急診部門計算醫學分數的表現。結果顯示,雖然人工智慧模型有些表現接近人類醫師,但在預測能力上,人類醫師的專業知識仍然更勝一籌。建議將人工智慧當作輔助工具,而非取代急診部門等重要環境中的人類專業知識。未來需進一步研究,發揮人工智慧在急診醫學領域的潛力。 PubMed DOI

ChatGPT是一個由AI驅動的工具,用來協助門診分流。研究顯示,ChatGPT與手動分流結果高度一致,專家對其回答大多給予正面評價。另外,一項涵蓋45名患者的研究也顯示ChatGPT表現優異。ChatGPT的回答專業、全面且人性化,有助於改善治療時間、診斷,並緩解醫療人力不足問題,讓患者受益。 PubMed DOI

研究目的是評估使用RAG和LLMs(如GPT模型)來改善急診分流流程,提升護理一致性。通過模擬情境測試,發現搭配RAG的GPT-3.5模型在分流準確性上表現優異,可達70%正確率,並將低分流率降至8%。整合這兩者可提高急診評估的精確性和一致性,但仍需在實際醫療環境中驗證。 PubMed DOI

這項研究評估了AI語言模型GPT-3在診斷和分診的表現,並與一般人和醫生進行比較,使用了48個醫療案例。結果顯示,GPT-3在88%的案例中準確診斷,優於一般人(54%),但低於醫生(96%)。在分診準確性方面,GPT-3達70%,接近一般人(74%),但仍低於醫生(91%)。雖然GPT-3對預測的信心合理,但在急迫案例中準確性下降,偶爾會將緊急案例降為次要。總體而言,GPT-3的診斷表現不錯,但分診效果仍不如醫生。 PubMed DOI

這項研究探討了ChatGPT在急診部門使用緊急嚴重指數(ESI)進行病人分診的效果。研究對象為18歲以上、24小時內來急診的病人,收集了年齡、性別、主訴和生命徵象等資料。五位專家根據ESI標準評估病人緊急程度,並與ChatGPT的評估結果進行比較。 結果顯示,專家與ChatGPT之間的協議程度中等,Cohen's Kappa值為0.659,準確率76.6%。在高急迫性類別中,協議程度更強,顯示ChatGPT在識別高急迫性病人方面具有效能,顯示人工智慧在急診分診中的潛力。 PubMed DOI

這項研究比較了三層級的分診協議,包括分診護士、急診醫師和人工智慧模型(ChatGPT、Gemini 和 Pi),在2024年4月1日至4月7日於一所三級醫療機構的急診部門進行,分析了500名病人的數據。結果顯示,只有23.8%的病人獲得一致分類,分診護士對6.4%的病人過度分診,且人工智慧模型的分診不足率偏高,特別是ChatGPT在黃碼和紅碼病人中分診不足達26.5%和42.6%。結論指出,急診環境中不應僅依賴人工智慧進行分診。 PubMed DOI