原始文章

這項研究探討了使用GPT-4作為神經科學及醫學領域的病史採集工具。研究人員進行了一項觀察性試點研究,利用已發表的案例報告來獲取病史資料。研究使用三個模型來評估病史的準確性,結果顯示整體內容檢索準確率為81%。其中,頭痛的準確率為84%,中風82%,神經退行性疾病77%。雖然結果顯示這個大型語言模型能有效提取重要資訊,但仍需進一步驗證,以結合電子病歷和病人護理,發展更完善的診斷工具。 PubMed DOI


站上相關主題文章列表

人類數位雙胞胎系統HDTwin有潛力顛覆個人化認知健康診斷,因為它能整合多種健康數據,形成統一模型。認知健康複雜,整合資訊一直是挑戰。HDTwin利用大型語言模型,將來自不同來源的數據轉換為文本提示,並結合科學文獻,創建預測模型。在124名參與者的研究中,HDTwin準確率高達0.81,顯著超越傳統機器學習的0.65。此外,HDTwin還有聊天機器人介面,方便解釋診斷結果,提升早期檢測和介入策略的效果。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,在從腫瘤科電子健康紀錄中提取患者共病情況的表現。研究分析了250份病歷報告,結果顯示GPT-4在敏感性上表現優於GPT-3.5和醫生,達到96.8%。雖然醫生在精確度上稍勝一籌,但GPT-4的表現更一致,且能推斷出非明確的共病情況。整體而言,這些模型在提取資訊方面顯示出潛力,可能成為數據挖掘的重要工具。 PubMed DOI

這項研究評估了ChatGPT-4在住院神經科的診斷準確性,並與顧問神經科醫師進行比較。研究使用Epic電子健康紀錄的病人數據,CG4為51位病人生成了初步診斷和治療計畫。結果顯示,CG4的平均得分為2.57,顧問醫師為2.75,整體成功率相近(CG4為96.1%,顧問醫師為94.1%)。雖然顧問醫師的全面診斷可能性略高,但CG4仍被視為神經科有價值的診斷工具。未來需進一步研究以驗證這些結果。 PubMed DOI

這項研究探討了人工智慧工具,特別是ChatGPT和Google的Gemini,在協助醫療專業人員評估懷疑神經遺傳疾病患者的表現。研究中提出了九十個問題,涵蓋臨床診斷和遺傳風險等主題。結果顯示,ChatGPT的準確性優於Gemini,但兩者都存在診斷不準確和虛假信息的問題。雖然這些AI工具在支持臨床醫生方面有潛力,但使用時需謹慎,並應與專業醫生合作,以確保評估的可靠性。 PubMed DOI

在資源有限的國家,神經學緊急情況面臨挑戰,而人工智慧(AI)健康聊天機器人可能是解決方案。本研究評估了一個AI虛擬助手(VA)在神經疾病分診的安全性與有效性。 研究分為兩階段:首先,九位神經科醫生評估了十名患者的臨床紀錄,發現VA的診斷與專家一致性高達98.5%。其次,VA的準確性在患者互動中也獲得醫生的全力支持,平均互動時間為5.5分鐘。 VA在診斷和安全性上表現優於ChatGPT 3.5和4,57.8%的醫生評價其為「優秀」。這些結果顯示VA在緊急神經分診中的潛力,未來將進行更大規模的試驗。 PubMed DOI

本研究探討AI模型(如GPT-3.5和GPT-4)在急診科生成病症鑑別診斷的表現,並與急診科醫師的準確性進行比較。結果顯示,ChatGPT-4的準確率為85.5%,略高於ChatGPT-3.5的84.6%和醫師的83%。特別是在腸胃主訴方面,ChatGPT-4的準確性達87.5%。研究顯示AI模型在臨床決策中具潛在應用價值,建議未來進一步探索AI在醫療中的應用。 PubMed DOI

這篇論文探討了OpenAI的GPT-4在區分癲癇發作與功能性/解離性發作的能力。測試中,GPT-4在41個案例上表現出來,最初在沒有範例的情況下準確率為57%,提供一個範例後提升至64%,但更多範例並未進一步改善。相比之下,經驗豐富的神經科醫生平均達到71%的準確率。值得注意的是,在醫生一致同意的案例中,GPT-4的準確率達到81%。這顯示GPT-4的表現仍有限,但若能獲得更多臨床數據,或許能提升其診斷能力。 PubMed DOI

一款專為神經科設計的 AI(GPT-4 Turbo,經 Neura 運作),在模擬診斷中表現比現職神經科醫師更好,準確率高達 86%,反應時間也大幅縮短到 30 秒內,還能提供可靠、可查證的資訊。這證明針對特定領域設計的 AI,有機會成為臨床神經科的高效輔助工具。 PubMed DOI

這項研究發現,ChatGPT-4o寫病史的品質跟住院醫師差不多,但速度快很多(只要40秒,醫師要15分鐘)。雖然AI有助提升效率和品質,但資料安全和隱私問題還沒解決,實際應用前還需要更多研究,特別是在複雜病例和不同臨床環境下的表現。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI