原始文章

這項研究比較了三個人工智慧平台的診斷準確性,包括ChatGPT 4.0、Google Bard和WebMD的症狀檢查工具,與耳科醫生的診斷進行對比。研究結果顯示,這些AI平台的診斷準確率偏低,ChatGPT 4.0為22.45%,Google Bard為12.24%,WebMD僅5.10%。Fleiss' kappa值顯示AI與醫生的診斷協議不佳,強調了AI在醫療領域的局限性,並指出人類專業知識在臨床診斷中的重要性。 PubMed DOI


站上相關主題文章列表

研究評估OpenAI開發的ChatGPT在提供耳鼻喉科健康資訊的表現。醫生們認為聊天機器人回答相關性不錯,但深度有待加強,可能受訓練數據影響。儘管有潛力提供正確資訊,仍需改進回應深度和減少偏見。 PubMed DOI

大型語言模型可在醫療保健領域發揮作用,但在複雜疾病如壞死性外耳炎的鑑別診斷上有限。本文介紹一個NOE案例,初期誤診導致未能成功活檢,直到確診為綠膿桿菌感染。針對性抗生素治療後患者康復。後來,ChatGPT-3和ChatGPT-4分析此案例,僅使用臨床和影像數據。 PubMed DOI

研究比較了ChatGPT對耳鼻喉科臨床案例的回應和耳鼻喉科專家的表現。透過設定情境和案例,評估了難易度,檢視了ChatGPT回答的正確性和一致性。持續測試了5天以確保穩定性。結果顯示ChatGPT在耳鼻喉診斷上有潛力,但在回答穩定性和識別臨床元素方面仍有限制。 PubMed DOI

這項研究評估了使用一個大型語言學習模型來回答耳鼻喉頭頸外科的練習考題。研究發現,該模型的正確答案率為53%,正確解釋率為54%。隨著問題難度的增加,準確性下降,顯示目前的人工智慧驅動平台在外科等專業領域的醫學教育中還不夠可靠。 PubMed DOI

研究發現ChatGPT在耳鼻喉科診斷、治療建議和康復指導方面表現不錯,但在手術步驟描述上有不足,缺乏關鍵細節和風險提供。ChatGPT可提供基本資訊,但無法取代耳鼻喉科醫師的臨床專業知識。為了更好地幫助醫師,需持續改進醫療人工智慧技術。 PubMed DOI

研究發現ChatGPT-4在耳鼻喉科病例管理中表現良好,對患者提供了許多有用建議,雖然有時會建議額外檢查。在診斷準確率方面有改進空間,但在初步診斷上有潛力成為耳鼻喉科醫師的輔助工具。 PubMed DOI

研究指出,像ChatGPT這樣的大型語言模型對神經外科醫生在處理臨床病例時有幫助。ChatGPT 3.5和4.0在診斷方面比Perplexity AI和Bard AI更準確,前五個診斷中達到77.89%的正確率。然而,對於複雜疾病仍有挑戰。總的來說,LLMs有助於提升神經外科診斷的精準度。 PubMed DOI

人工智慧(AI)在醫學領域,特別是耳鼻喉科,有重要影響。GPT-4 Vision(GPT-4V)結合語言處理與影像分析,提高中耳疾病診斷效率。研究顯示多模態AI方法在影像分類上表現優異,但仍需進一步優化。儘管有潛力幫助臨床決策,仍需解決數據隱私和倫理挑戰。多模態AI有助於提升耳鼻喉科診斷和病人護理,值得進一步研究。 PubMed DOI

研究評估了AI聊天機器人ChatGPT-4在提供耳硬化手術資訊的表現,結果顯示回答品質不一。專家使用DISCERN系統評估後發現,回答有時超出一般讀者理解範圍,且可能不完整或誤導。建議改善AI系統以提供準確易懂的資訊,並建議醫護人員監督其應用於病患教育和護理。 PubMed DOI

這項研究評估了三個人工智慧模型—ChatGPT、GPT-4 和 Google Bard—在美國耳鼻喉科考試問題上的表現,分析了1,077道文字題和60道圖片題。結果顯示,GPT-4的表現最佳,得分78.7%,而ChatGPT和Bard分別為55.3%和61.7%(p<0.001)。所有模型在簡單問題上表現較好,GPT-4在各子專科得分也較高,僅過敏科差異不顯著。雖然GPT-4表現良好,但在醫學教育和病人護理中的應用仍需謹慎。 PubMed DOI