原始文章

這項研究探討了兩款AI聊天機器人,ChatGPT和Perplexity AI,在診斷不同類型的發聲障礙(有機性、功能性和神經性)的效果。第一個實驗中,37名患者的聲音自我評估和聲學分析結合使用;第二個實驗則僅用27名患者的聲學分析。結果顯示,ChatGPT雖提供指導,但未進行數據分析,而Perplexity AI在第一個實驗中與專家診斷的吻合度為0.773,但第二個實驗僅為0.067,顯示缺乏顯著性。研究認為目前AI在臨床診斷發聲障礙方面尚不成熟,未來需進一步研究以提升其潛力。 PubMed DOI


站上相關主題文章列表

自2023年初以來,ChatGPT在醫療研究中備受矚目,尤其在協助醫師做臨床判斷方面表現出色。一項研究評估了ChatGPT在辨識、診斷和處理耳鼻喉科症狀患者的表現,結果顯示ChatGPT在20個臨床案例中與五位耳鼻喉科醫師相比,表現有顯著差異。儘管ChatGPT回答問題時有些許變化,但被視為具潛力的聊天機器人,可協助醫護人員做出明智決策,並有進一步發展和改進的潛力。 PubMed DOI

研究比較了知名的人工智慧聊天機器人在區分嚴重和較不嚴重的醫療症狀上的表現,並評估了它們的準確性和具有同理心的溝通方式。研究分析了三個聊天機器人對醫療緊急情況和非緊急情況的案例報告。這些聊天機器人提供了合理的診斷和緊急性評估,但在回應的詳情和長度上有所不同。儘管它們提供指導,但在廣泛應用於醫療問題之前,仍需要謹慎和進一步研究。 PubMed DOI

研究發現ChatGPT-4在耳鼻喉科病例管理中表現良好,對患者提供了許多有用建議,雖然有時會建議額外檢查。在診斷準確率方面有改進空間,但在初步診斷上有潛力成為耳鼻喉科醫師的輔助工具。 PubMed DOI

研究發現ChatGPT在臨床案例中的診斷和治療方面表現準確,並得到醫師認可。這顯示人工智慧模型在醫療領域與醫生合作的潛力,可減少錯誤和工作量。然而,仍需進一步研究以了解其能力和潛在偏見。 PubMed DOI

研究發現ChatGPT在辨識非典型疾病表現上有一定準確性,但對高度非典型案例的表現較差。儘管對典型和輕微非典型案例有潛力,但隨著非典型性增加,表現也下降。研究強調AI系統需結合多樣語言能力和臨床情境,以提升現實世界的診斷效果。 PubMed DOI

這項研究評估了ChatGPT-4在分析耳鼻喉科影像時的一致性,涉及40名患者。結果顯示,ChatGPT-4在影像解讀的平均一致性分數為2.46,僅在15%的案例中準確分析影像,且與醫生的高一致性僅12.5%。它建議的額外檢查次數顯著高於臨床醫師,且主要診斷準確率僅20%到25%。整體而言,雖然ChatGPT-4在主要診斷上有一定效率,但在影像分析及檢查建議的可靠性較低。 PubMed DOI

這項研究比較了三個人工智慧平台的診斷準確性,包括ChatGPT 4.0、Google Bard和WebMD的症狀檢查工具,與耳科醫生的診斷進行對比。研究結果顯示,這些AI平台的診斷準確率偏低,ChatGPT 4.0為22.45%,Google Bard為12.24%,WebMD僅5.10%。Fleiss' kappa值顯示AI與醫生的診斷協議不佳,強調了AI在醫療領域的局限性,並指出人類專業知識在臨床診斷中的重要性。 PubMed DOI

這項研究探討了人工智慧模型,特別是ChatGPT和Perplexity AI,在評估聲音病理的有效性。研究比較了這些AI的聲音障礙評估與專家聽覺評估,分析了50名成人聲音障礙患者的資料。結果顯示,AI評估與專家評估之間並無顯著一致性(Cohen's Kappa, p = 0.429),而AI模型之間的診斷則有低度正相關(r_s = 0.30, p = 0.03)。總體來看,研究指出人工智慧可能不適合作為聲音護理團隊評估聲音障礙的工具。 PubMed DOI

這項研究探討了基於人工智慧的聊天機器人ChatGPT-4在口腔黏膜病變鑑別診斷中的有效性。研究收集了因口腔黏膜活檢而轉診的患者數據,並將病變描述輸入ChatGPT以生成診斷,與專家診斷進行比較。結果顯示,聊天機器人的診斷與專家之間有顯著相關性,且能高敏感性識別惡性病變。整體而言,ChatGPT-4在識別可疑惡性病變方面表現出色,顯示出其在口腔醫學中的輔助潛力。 PubMed DOI

這項研究評估了ChatGPT-4o在分析懷疑喉部惡性腫瘤的臨床纖維內視鏡視頻的表現,並與專家醫師進行比較。研究在一所醫療中心對20名患者進行,結果顯示該人工智慧在30%的案例中正確診斷惡性腫瘤,並在90%的案例中將其列為前三名診斷。雖然敏感性高,但特異性有限,影像分析一致性得分為2.36(滿分5分)。總體而言,ChatGPT-4o顯示潛力,但在特異性和影像解讀上仍需改進,以提升耳鼻喉科的診斷準確性。 PubMed DOI