原始文章

本研究評估了大型語言模型(如ChatGPT)在癲癇診斷中的有效性,並比較了癲癇醫師與AI的診斷一致性。研究分析了597名急診患者,結果顯示神經科醫師診斷癲癇的比例為36.2%,而ChatGPT僅為18.2%。兩者之間的協議極低,Cohen's kappa值為-0.01,顯示AI在癲癇診斷上無法與人類醫師相提並論。雖然AI在識別非癲癇病例上表現較好,但仍需進一步研究以提升其診斷準確性。 PubMed DOI


站上相關主題文章列表

本研究比較了兩種人工智慧工具——ChatGPT和Google Gemini,在生成癲癇病人教育指南的有效性。結果顯示,兩者在多項指標上無顯著差異,但Google Gemini在理解難易度上表現較佳,特別是在全身性強直-陣攣發作、肌陣攣發作及癲癇持續狀態的回應中,且其每字音節數也較少。這顯示Google Gemini在病人教育方面更具優勢,未來需進一步提升AI工具的能力,以增進癲癇病人教育的效果。 PubMed DOI

這項研究評估了ChatGPT-4在住院神經科的診斷準確性,並與顧問神經科醫師進行比較。研究使用Epic電子健康紀錄的病人數據,CG4為51位病人生成了初步診斷和治療計畫。結果顯示,CG4的平均得分為2.57,顧問醫師為2.75,整體成功率相近(CG4為96.1%,顧問醫師為94.1%)。雖然顧問醫師的全面診斷可能性略高,但CG4仍被視為神經科有價值的診斷工具。未來需進一步研究以驗證這些結果。 PubMed DOI

這項研究比較了功能性癲癇發作可能性評分(FSLS)與兩個大型語言模型(ChatGPT和GPT-4)在區分功能性癲癇發作和癲癇發作的診斷表現。使用114個病患案例,FSLS的準確率為74%,而GPT-4的準確率達85%。研究發現,LLMs的預測結果在不同時間不一致,且自我評估的確定性與變異性中等相關。雖然GPT-4和FSLS能有效識別FS病患,但預測結果的差異及不一致性引發了對其臨床可靠性的擔憂,顯示出機器學習和人工智慧在診斷中的潛力與限制。 PubMed DOI

這項研究探討了大型語言模型 ChatGPT 在解釋癲癇發作的臨床表現,以定位藥物抗性局部癲癇患者的癲癇病灶區的有效性。準確的病灶區定位對外科治療至關重要。研究比較了 ChatGPT 與癲癇專家的表現,使用了852組公開數據和184組台灣私有數據。結果顯示,ChatGPT 在額葉和顳葉的敏感性高達80-90%,且在常見病灶區的表現顯著優於專家。總體而言,ChatGPT 可成為癲癇術前評估的有用工具,未來隨著技術進步,其可靠性和有效性有望提升。 PubMed DOI

這篇論文探討了OpenAI的GPT-4在區分癲癇發作與功能性/解離性發作的能力。測試中,GPT-4在41個案例上表現出來,最初在沒有範例的情況下準確率為57%,提供一個範例後提升至64%,但更多範例並未進一步改善。相比之下,經驗豐富的神經科醫生平均達到71%的準確率。值得注意的是,在醫生一致同意的案例中,GPT-4的準確率達到81%。這顯示GPT-4的表現仍有限,但若能獲得更多臨床數據,或許能提升其診斷能力。 PubMed DOI

這項研究評估了基於ChatGPT的AI模型在解讀心電圖(ECG)的效果,並與心臟科醫生進行比較。分析了107個不同難度的ECG案例,結果顯示心臟科醫生的準確率為92.52%,遠高於AI模型的57.94%至62.62%。雖然AI在女性患者的表現較佳,但整體上仍不如醫生。研究指出,AI模型在ECG解讀上有潛力,但目前的可靠性不足,需進一步研究以提升準確性,特別是在複雜診斷方面。 PubMed DOI

這項研究探討了ChatGPT在診斷成人癲癇發作的有效性,並與專家進行比較。使用37個臨床案例,結果顯示ChatGPT在識別癲癇發作上敏感度高達96.9%,但特異度較低,特別是在區分急性與非誘發性發作時。雖然在診斷癲癇綜合症和結構性原因上表現良好,但在處理模糊案例時仍有困難。相比之下,人類專家的準確性更高。研究建議未來可將AI與專家結合,以提升癲癇診斷的準確性。 PubMed DOI

本研究評估ChatGPT 4 Omni在診斷神經認知障礙的準確性,並與早期版本比較。研究分為兩部分,第一部分分析其與臨床醫生的診斷一致性,涉及12,922名老年人,結果顯示有一定的關聯性,但準確性仍不足以獨立使用。第二部分則使用537名老年人的數據,未顯示顯著一致性。結論指出,雖然ChatGPT 4 Omni有潛力,但仍需改進與訓練,以提升其在臨床中的應用效果。 PubMed DOI

這項研究發現,ChatGPT在判斷癲癇發作症狀和定位藥物難治型局部癲癇的致癲區時,表現不輸給癲癇專科醫師,尤其在額葉和顳葉的預測上更是突出。無論用公開資料還是台灣醫院的病例,ChatGPT的表現都很穩定,淨正向推論率也和專家差不多。未來隨著技術進步,ChatGPT有望成為協助癲癇手術規劃的好幫手。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI