原始文章

這項研究評估了兩個人工智慧系統,ChatGPT 4.0 和 Algor,在生成耳鼻喉科概念圖的表現。八位專家根據概念識別、關係建立等標準進行評估。結果顯示,兩者各有優勢,ChatGPT 在交叉連結和佈局上表現佳,特別是鼻整形手術方面;而 Algor 在識別主題和區分概念上更出色,尤其在 BPVV 和鼓膜通氣管的指導方針中。研究建議需進一步探討 AI 在醫學教育中的應用潛力與限制。 PubMed DOI


站上相關主題文章列表

研究使用 Chat-GPT 協助醫護人員診斷睡眠呼吸暫停症,結果顯示與專業醫師意見一致率超過75%,但整體共識僅有四個問題。儘管 Chat-GPT 一致性中等,仍需改進並與專家合作。人工智慧在醫療領域有潛力,但應視為醫療人員輔助,而非替代。研究強調了人工智慧與人類合作的重要性,並為耳鼻喉學領域帶來啟示,呼籲進一步探索人工智慧在醫療上的應用。 PubMed DOI

研究發現ChatGPT在耳鼻喉科診斷、治療建議和康復指導方面表現不錯,但在手術步驟描述上有不足,缺乏關鍵細節和風險提供。ChatGPT可提供基本資訊,但無法取代耳鼻喉科醫師的臨床專業知識。為了更好地幫助醫師,需持續改進醫療人工智慧技術。 PubMed DOI

ChatGPT-4在鼻科臨床案例中提供正確初步診斷的比例為62.5%,並建議7.5%-30.0%的案例需進行額外檢查和治療。其回應穩定性中等至高,且不受案例難度影響。建議在臨床實務中仍需醫師判斷為主。 PubMed DOI

研究指出,ChatGPT-4在神經腫瘤學案例中比ChatGPT-3.5表現更好。ChatGPT-4的診斷準確率為85%,治療計劃準確率為75%,明顯高於ChatGPT-3.5的65%和10%。神經外科醫生認為ChatGPT-4準確性較佳,有潛力成為神經腫瘤學的診斷工具。 PubMed DOI

研究發現ChatGPT-4在耳鼻喉科病例管理中表現良好,對患者提供了許多有用建議,雖然有時會建議額外檢查。在診斷準確率方面有改進空間,但在初步診斷上有潛力成為耳鼻喉科醫師的輔助工具。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

一項研究評估了ChatGPT 3.5和連接網路的GPT-4(Microsoft Copilot)在公共醫療系統耳鼻喉科考試中的表現,共發放135道問題。結果顯示,GPT-4的得分為88.5分,明顯優於ChatGPT的60分,且Copilot在108名耳鼻喉科醫生中排名第二,而ChatGPT則排在第83位。整體來看,具網路連接的GPT-4在回答醫學多選題方面表現更佳。 PubMed DOI

這項研究評估了三個人工智慧模型—ChatGPT、GPT-4 和 Google Bard—在美國耳鼻喉科考試問題上的表現,分析了1,077道文字題和60道圖片題。結果顯示,GPT-4的表現最佳,得分78.7%,而ChatGPT和Bard分別為55.3%和61.7%(p<0.001)。所有模型在簡單問題上表現較好,GPT-4在各子專科得分也較高,僅過敏科差異不顯著。雖然GPT-4表現良好,但在醫學教育和病人護理中的應用仍需謹慎。 PubMed DOI

這項研究評估了兩個AI聊天機器人,GPT-4和GPT-3.5(ChatGPT),在回答鼻整形手術相關臨床問題的表現。分析了10個問題後,兩者準確率均達90%。不過,GPT-4的準確率(86.0%)略低於GPT-3.5(94.0%),但差異不顯著。GPT-4在評估證據信心方面表現更佳(52.0%對28.0%)。兩者在政策層級和證據質量上無顯著差異,但GPT-4引用文獻的頻率較高(36.9%對24.1%)。總體來看,GPT-4在專業情境中顯示出更準確的參考潛力。 PubMed DOI

這項研究探討了ChatGPT在耳鼻喉科領域生成研究想法的潛力,將提示分為七個子專科,並評估其在系統性回顧中的表現。雖然ChatGPT在創造獨特的系統性回顧主題上有些困難,但所產生的想法通常具可行性和臨床相關性。研究建議未來應聚焦於ChatGPT在不同方法論及耳鼻喉科特定領域中生成問題的能力,顯示出人工智慧在醫學研究中的限制與潛力。 PubMed DOI