原始文章

這項研究探討了使用GPT-4作為神經科學及醫學領域的病史採集工具。研究人員進行了一項觀察性試點研究,利用已發表的案例報告來獲取病史資料。研究使用三個模型來評估病史的準確性,結果顯示整體內容檢索準確率為81%。其中,頭痛的準確率為84%,中風82%,神經退行性疾病77%。雖然結果顯示這個大型語言模型能有效提取重要資訊,但仍需進一步驗證,以結合電子病歷和病人護理,發展更完善的診斷工具。 PubMed DOI


站上相關主題文章列表

研究指出,像ChatGPT這樣的大型語言模型對神經外科醫生在處理臨床病例時有幫助。ChatGPT 3.5和4.0在診斷方面比Perplexity AI和Bard AI更準確,前五個診斷中達到77.89%的正確率。然而,對於複雜疾病仍有挑戰。總的來說,LLMs有助於提升神經外科診斷的精準度。 PubMed DOI

這項研究探討了使用GPT-4模型,透過與模擬病人聊天機器人的互動,為醫學生提供病史採集技巧的反饋。研究對象為三年級醫學生,分析了106次對話中的1,894個問答對。結果顯示,GPT-4的回應在99%以上是醫學上合理的,且與人類評分者的協議幾乎完美(Cohen κ=0.832)。不過,在45個反饋類別中,有8個類別出現差異,顯示模型評估可能過於具體或與人類判斷不同。總體而言,研究認為GPT-4在提供結構化反饋上有效,並建議在醫學教育中謹慎整合AI反饋機制。 PubMed DOI

這項研究探討了ChatGPT在神經學診斷中的輔助潛力。研究人員使用神經學專家的合成數據,評估ChatGPT對各種神經疾病的診斷準確性。結果顯示,ChatGPT的準確率介於68.5%到83.83%之間,與專家神經科醫生的81.66%相當,且高於一般醫生的57.15%。這顯示人工智慧工具如ChatGPT有助於提升臨床診斷的準確性,特別是在神經學領域,未來有望改善醫療實踐和診斷過程。 PubMed DOI

這項研究評估了GPT-4在神經放射學中生成鑑別診斷的效果,並與專業神經放射科醫師進行比較。研究分析了60份報告,結果顯示GPT-4在61.7%的案例中正確包含實際診斷,而醫師的準確率在63.3%到73.3%之間。GPT-4與醫師的協議程度被評為公平到中等。雖然GPT-4在輔助放射學工作上顯示潛力,但準確性仍不及人類專家,這強調了了解其局限性的重要性。 PubMed DOI

這項研究評估了生成式預訓練變換器(GPT)在阿茲海默症(AD)管理中的表現。研究提出十四個問題,並向GPT-3.5和GPT-4詢問,還收集了四位神經科醫師的回應。結果顯示,神經科醫師的平均得分為3.9,而GPT的得分為4.4,且80%的高評價回應來自GPT。英文回應的可理解性和滿意度高於中文,家屬對GPT和醫師的評分無顯著差異。總體來看,GPT能有效提供AD相關的教育資訊,可能改善醫療管理和患者結果。 PubMed DOI

人類數位雙胞胎系統HDTwin有潛力顛覆個人化認知健康診斷,因為它能整合多種健康數據,形成統一模型。認知健康複雜,整合資訊一直是挑戰。HDTwin利用大型語言模型,將來自不同來源的數據轉換為文本提示,並結合科學文獻,創建預測模型。在124名參與者的研究中,HDTwin準確率高達0.81,顯著超越傳統機器學習的0.65。此外,HDTwin還有聊天機器人介面,方便解釋診斷結果,提升早期檢測和介入策略的效果。 PubMed DOI

神經脊髓炎光譜疾病(NMOSD)常被誤診,隨著像ChatGPT這類人工智慧的興起,對其診斷能力的關注也增加。本研究評估了ChatGPT-3.5在診斷誤診NMOSD患者的速度與準確性。研究中,68名患者的資料被輸入GPT-3.5,結果顯示其正確診斷率為80.88%,高於醫生的70.65%。雖然GPT-3.5在識別NMOSD上顯示潛力,但醫療資訊的呈現及其不準確性可能會對患者造成心理壓力。 PubMed DOI

這項研究評估了ChatGPT-4在住院神經科的診斷準確性,並與顧問神經科醫師進行比較。研究使用Epic電子健康紀錄的病人數據,CG4為51位病人生成了初步診斷和治療計畫。結果顯示,CG4的平均得分為2.57,顧問醫師為2.75,整體成功率相近(CG4為96.1%,顧問醫師為94.1%)。雖然顧問醫師的全面診斷可能性略高,但CG4仍被視為神經科有價值的診斷工具。未來需進一步研究以驗證這些結果。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI