原始文章

這項研究探討了人工智慧模型,特別是ChatGPT和Perplexity AI,在評估聲音病理的有效性。研究比較了這些AI的聲音障礙評估與專家聽覺評估,分析了50名成人聲音障礙患者的資料。結果顯示,AI評估與專家評估之間並無顯著一致性(Cohen's Kappa, p = 0.429),而AI模型之間的診斷則有低度正相關(r_s = 0.30, p = 0.03)。總體來看,研究指出人工智慧可能不適合作為聲音護理團隊評估聲音障礙的工具。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在初步診斷和治療方案上表現不錯,但提出進一步檢查時表現較差。兩位耳鼻喉科醫師認為ChatGPT對常見測試有共識,但對一些重要測試則看法不同。總結來說,ChatGPT在喉喉學和頭頸部疾病領域有應用潛力,尤其在診斷和治療方面。 PubMed DOI

研究比較了ChatGPT對耳鼻喉科臨床案例的回應和耳鼻喉科專家的表現。透過設定情境和案例,評估了難易度,檢視了ChatGPT回答的正確性和一致性。持續測試了5天以確保穩定性。結果顯示ChatGPT在耳鼻喉診斷上有潛力,但在回答穩定性和識別臨床元素方面仍有限制。 PubMed DOI

研究使用 Chat-GPT 協助醫護人員診斷睡眠呼吸暫停症,結果顯示與專業醫師意見一致率超過75%,但整體共識僅有四個問題。儘管 Chat-GPT 一致性中等,仍需改進並與專家合作。人工智慧在醫療領域有潛力,但應視為醫療人員輔助,而非替代。研究強調了人工智慧與人類合作的重要性,並為耳鼻喉學領域帶來啟示,呼籲進一步探索人工智慧在醫療上的應用。 PubMed DOI

研究發現ChatGPT在耳鼻喉科診斷、治療建議和康復指導方面表現不錯,但在手術步驟描述上有不足,缺乏關鍵細節和風險提供。ChatGPT可提供基本資訊,但無法取代耳鼻喉科醫師的臨床專業知識。為了更好地幫助醫師,需持續改進醫療人工智慧技術。 PubMed DOI

ChatGPT和Llama等AI語言模型被應用在醫學領域,協助病患和醫護人員取得醫學資訊。一項研究探討它們在處理雙側聲帶麻痺(BVFP)治療決策時的表現,使用了20個臨床案例。研究指出,ChatGPT和Llama在提出BVFP治療方案時的準確性較低,其中ChatGPT表現較好。研究也凸顯了BVFP治療的複雜性,以及遵循專業指引的重要性。 PubMed DOI

研究發現ChatGPT在臨床案例中的診斷和治療方面表現準確,並得到醫師認可。這顯示人工智慧模型在醫療領域與醫生合作的潛力,可減少錯誤和工作量。然而,仍需進一步研究以了解其能力和潛在偏見。 PubMed DOI

研究發現ChatGPT在辨識非典型疾病表現上有一定準確性,但對高度非典型案例的表現較差。儘管對典型和輕微非典型案例有潛力,但隨著非典型性增加,表現也下降。研究強調AI系統需結合多樣語言能力和臨床情境,以提升現實世界的診斷效果。 PubMed DOI

這項研究評估了ChatGPT-4在分析耳鼻喉科影像時的一致性,涉及40名患者。結果顯示,ChatGPT-4在影像解讀的平均一致性分數為2.46,僅在15%的案例中準確分析影像,且與醫生的高一致性僅12.5%。它建議的額外檢查次數顯著高於臨床醫師,且主要診斷準確率僅20%到25%。整體而言,雖然ChatGPT-4在主要診斷上有一定效率,但在影像分析及檢查建議的可靠性較低。 PubMed DOI

一項研究評估了ChatGPT 3.5和連接網路的GPT-4(Microsoft Copilot)在公共醫療系統耳鼻喉科考試中的表現,共發放135道問題。結果顯示,GPT-4的得分為88.5分,明顯優於ChatGPT的60分,且Copilot在108名耳鼻喉科醫生中排名第二,而ChatGPT則排在第83位。整體來看,具網路連接的GPT-4在回答醫學多選題方面表現更佳。 PubMed DOI

這項研究比較了三個人工智慧平台的診斷準確性,包括ChatGPT 4.0、Google Bard和WebMD的症狀檢查工具,與耳科醫生的診斷進行對比。研究結果顯示,這些AI平台的診斷準確率偏低,ChatGPT 4.0為22.45%,Google Bard為12.24%,WebMD僅5.10%。Fleiss' kappa值顯示AI與醫生的診斷協議不佳,強調了AI在醫療領域的局限性,並指出人類專業知識在臨床診斷中的重要性。 PubMed DOI