原始文章

這項研究探討神經科醫師與人工智慧平台在多發性硬化症(MS)診斷和治療知識的準確性。37位專家和79位住院醫師回答了20道選擇題。結果顯示,專家的平均正確率為12.05題,住院醫師為9.08題,經驗較豐富的住院醫師表現較佳。MS診所的專家得分更高,平均17.67。人工智慧平台如ChatGPT-4.0的得分介於14到19之間,平均17.0,Claude 3.5得分最高。研究顯示人工智慧能有效輔助MS診斷與治療,但在複雜案例中仍有挑戰,未來需進一步研究其潛力與限制。 PubMed DOI


站上相關主題文章列表

研究比較了基於GPT-3.5的AI聊天機器人和神經學醫師在臨床案例中的診斷和決策表現。結果顯示,AI聊天機器人在神經學領域的表現相當不錯,正確率高達85%,並能提供96.1%的案例充分理由。研究指出AI可作為神經學臨床推理的輔助工具,未來應用前景廣闊。 PubMed DOI

研究指出,像ChatGPT這樣的大型語言模型對神經外科醫生在處理臨床病例時有幫助。ChatGPT 3.5和4.0在診斷方面比Perplexity AI和Bard AI更準確,前五個診斷中達到77.89%的正確率。然而,對於複雜疾病仍有挑戰。總的來說,LLMs有助於提升神經外科診斷的精準度。 PubMed DOI

人工智慧技術在病患照護上有很大潛力,尤其在診斷、精神疾病治療和認知測試解讀等方面。雖然進展顯著,但仍需進一步研究其在醫療中的優缺點。一項研究比較了人工智慧(Chat-GPT 3.5)和臨床醫師對癡呆症相關問題的回答,結果顯示人工智慧在易懂性和深度上表現更佳,平均評分為4.6/5,而臨床醫師則為4.3、4.2和3.9。儘管人工智慧的回答質量高,但仍需注意錯誤資訊和數據安全等問題。總之,人工智慧在醫療溝通上有潛力,但需謹慎對待其限制。 PubMed DOI

這項研究探討了生成式人工智慧平台ChatGPT在診斷多發性硬化症(MS)的潛力,特別是對Z世代的影響。研究發現,使用ChatGPT的診斷時間顯著短於傳統臨床診斷,且Z世代的診斷準確率高於非Z世代。儘管AI能加速資訊獲取,但其回應可能存在偏見,且不一定適用於所有情況。隨著Z世代對AI的依賴增加,醫療界需謹慎考量這些因素。 PubMed DOI

這項研究探討了ChatGPT在神經學診斷中的輔助潛力。研究人員使用神經學專家的合成數據,評估ChatGPT對各種神經疾病的診斷準確性。結果顯示,ChatGPT的準確率介於68.5%到83.83%之間,與專家神經科醫生的81.66%相當,且高於一般醫生的57.15%。這顯示人工智慧工具如ChatGPT有助於提升臨床診斷的準確性,特別是在神經學領域,未來有望改善醫療實踐和診斷過程。 PubMed DOI

這項研究評估了ChatGPT在西班牙神經科專科考試中的表現,特別是版本3.5和4,並與人類醫生進行比較。考試包含80道多選題,結果顯示人類醫生中位數得分為5.91,32人未通過。ChatGPT-3.5得分3.94,正確率54.5%,排名第116;而ChatGPT-4得分7.57,正確率81.8%,排名第17,超越許多人類專家。研究顯示,ChatGPT-4在醫學知識評估中有顯著進步,顯示其在專業醫學教育中的潛在價值。 PubMed DOI

這項研究指出AI大型語言模型的限制,特別是ChatGPT-3.5在診斷多發性硬化症(MS)方面的挑戰。分析了2014至2024年間的98篇報告,該模型正確診斷77例MS,準確率為78.6%。但也錯誤診斷21例,顯示出數據變異性和MS診斷的複雜性。雖然AI能協助診斷,但研究強調需用大型數據集進行訓練,以減少錯誤。將AI應用於臨床必須經過徹底驗證,並建立監管框架,確保病人安全。 PubMed DOI

神經脊髓炎光譜疾病(NMOSD)常被誤診,隨著像ChatGPT這類人工智慧的興起,對其診斷能力的關注也增加。本研究評估了ChatGPT-3.5在診斷誤診NMOSD患者的速度與準確性。研究中,68名患者的資料被輸入GPT-3.5,結果顯示其正確診斷率為80.88%,高於醫生的70.65%。雖然GPT-3.5在識別NMOSD上顯示潛力,但醫療資訊的呈現及其不準確性可能會對患者造成心理壓力。 PubMed DOI

這項研究評估了ChatGPT-4在住院神經科的診斷準確性,並與顧問神經科醫師進行比較。研究使用Epic電子健康紀錄的病人數據,CG4為51位病人生成了初步診斷和治療計畫。結果顯示,CG4的平均得分為2.57,顧問醫師為2.75,整體成功率相近(CG4為96.1%,顧問醫師為94.1%)。雖然顧問醫師的全面診斷可能性略高,但CG4仍被視為神經科有價值的診斷工具。未來需進一步研究以驗證這些結果。 PubMed DOI

這項研究探討了ChatGPT在診斷成人癲癇發作的有效性,並與專家進行比較。使用37個臨床案例,結果顯示ChatGPT在識別癲癇發作上敏感度高達96.9%,但特異度較低,特別是在區分急性與非誘發性發作時。雖然在診斷癲癇綜合症和結構性原因上表現良好,但在處理模糊案例時仍有困難。相比之下,人類專家的準確性更高。研究建議未來可將AI與專家結合,以提升癲癇診斷的準確性。 PubMed DOI