原始文章

慢性共濟失調症是一組超過300種疾病,因其臨床和遺傳特徵多樣,診斷上相當困難。本研究提出利用人工智慧(AI)來協助診斷,開發了一個智慧虛擬助手。這個助手的診斷準確率高達90.9%,超越了21位神經科醫師和GPT-4的表現。虛擬助手平均只需14個問題和1.5分鐘就能提供診斷清單,效率遠高於醫師的19.4分鐘。研究顯示,這個助手不僅準確,還能成為神經科諮詢的有力工具,未來可能應用於其他疾病。 PubMed DOI


站上相關主題文章列表

研究比較了基於GPT-3.5的AI聊天機器人和神經學醫師在臨床案例中的診斷和決策表現。結果顯示,AI聊天機器人在神經學領域的表現相當不錯,正確率高達85%,並能提供96.1%的案例充分理由。研究指出AI可作為神經學臨床推理的輔助工具,未來應用前景廣闊。 PubMed DOI

研究指出,像ChatGPT這樣的大型語言模型對神經外科醫生在處理臨床病例時有幫助。ChatGPT 3.5和4.0在診斷方面比Perplexity AI和Bard AI更準確,前五個診斷中達到77.89%的正確率。然而,對於複雜疾病仍有挑戰。總的來說,LLMs有助於提升神經外科診斷的精準度。 PubMed DOI

這項研究探討了ChatGPT在神經學診斷中的輔助潛力。研究人員使用神經學專家的合成數據,評估ChatGPT對各種神經疾病的診斷準確性。結果顯示,ChatGPT的準確率介於68.5%到83.83%之間,與專家神經科醫生的81.66%相當,且高於一般醫生的57.15%。這顯示人工智慧工具如ChatGPT有助於提升臨床診斷的準確性,特別是在神經學領域,未來有望改善醫療實踐和診斷過程。 PubMed DOI

神經脊髓炎光譜疾病(NMOSD)常被誤診,隨著像ChatGPT這類人工智慧的興起,對其診斷能力的關注也增加。本研究評估了ChatGPT-3.5在診斷誤診NMOSD患者的速度與準確性。研究中,68名患者的資料被輸入GPT-3.5,結果顯示其正確診斷率為80.88%,高於醫生的70.65%。雖然GPT-3.5在識別NMOSD上顯示潛力,但醫療資訊的呈現及其不準確性可能會對患者造成心理壓力。 PubMed DOI

這項研究評估了ChatGPT-4在住院神經科的診斷準確性,並與顧問神經科醫師進行比較。研究使用Epic電子健康紀錄的病人數據,CG4為51位病人生成了初步診斷和治療計畫。結果顯示,CG4的平均得分為2.57,顧問醫師為2.75,整體成功率相近(CG4為96.1%,顧問醫師為94.1%)。雖然顧問醫師的全面診斷可能性略高,但CG4仍被視為神經科有價值的診斷工具。未來需進一步研究以驗證這些結果。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

這項研究探討了使用GPT-4作為神經科學及醫學領域的病史採集工具。研究人員進行了一項觀察性試點研究,利用已發表的案例報告來獲取病史資料。研究使用三個模型來評估病史的準確性,結果顯示整體內容檢索準確率為81%。其中,頭痛的準確率為84%,中風82%,神經退行性疾病77%。雖然結果顯示這個大型語言模型能有效提取重要資訊,但仍需進一步驗證,以結合電子病歷和病人護理,發展更完善的診斷工具。 PubMed DOI

在資源有限的國家,神經學緊急情況面臨挑戰,而人工智慧(AI)健康聊天機器人可能是解決方案。本研究評估了一個AI虛擬助手(VA)在神經疾病分診的安全性與有效性。 研究分為兩階段:首先,九位神經科醫生評估了十名患者的臨床紀錄,發現VA的診斷與專家一致性高達98.5%。其次,VA的準確性在患者互動中也獲得醫生的全力支持,平均互動時間為5.5分鐘。 VA在診斷和安全性上表現優於ChatGPT 3.5和4,57.8%的醫生評價其為「優秀」。這些結果顯示VA在緊急神經分診中的潛力,未來將進行更大規模的試驗。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這項研究探討神經科醫師與人工智慧平台在多發性硬化症(MS)診斷和治療知識的準確性。37位專家和79位住院醫師回答了20道選擇題。結果顯示,專家的平均正確率為12.05題,住院醫師為9.08題,經驗較豐富的住院醫師表現較佳。MS診所的專家得分更高,平均17.67。人工智慧平台如ChatGPT-4.0的得分介於14到19之間,平均17.0,Claude 3.5得分最高。研究顯示人工智慧能有效輔助MS診斷與治療,但在複雜案例中仍有挑戰,未來需進一步研究其潛力與限制。 PubMed DOI