原始文章

隨著神經外科文獻不斷增加,手動篩選系統評價和指導方針的摘要變得越來越困難。為了解決這個問題,我們評估了兩個大型語言模型(LLMs),Gemini Pro 和 ChatGPT-4o-mini,針對美國神經外科醫學會的 Chiari I 畸形指導方針進行自動篩選。測試結果顯示,Gemini Pro 的敏感性高達 95%,特異性 60%,而 ChatGPT-4o-mini 的敏感性僅 18%,但特異性高達 95%。兩者都能在一小時內完成篩選,顯著縮短時間。這些結果顯示 LLM 在神經外科摘要篩選上的潛力,未來可能幫助醫學領域的指導方針實時更新。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT-4和Gemini Pro兩個語言模型在整形外科手術決策支援的表現。ChatGPT-4準確性和相關性較佳,Gemini則回應更快且易讀。兩者皆有應用潛力,但需進一步訓練和優化以確保可靠性。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT 4.0、AtlasGPT 和 Gemini—在識別血管內神經外科手術報告中的程序術語(CPT)代碼的效果。分析了30份手術記錄後,AtlasGPT 表現最佳,正確識別35.3%的 CPT 代碼,ChatGPT 緊隨其後,正確率為35.1%,而 Gemini 僅有8.9%。統計分析顯示這些模型之間的表現差異顯著。研究指出,雖然這些模型能部分識別 CPT 代碼,但進一步訓練可提升準確性,並可能降低醫療成本。 PubMed DOI

圍手術期神經認知障礙(PNDs)是手術後常見的併發症,特別在老年人中,會增加健康風險和醫療成本。研究評估了ChatGPT-4和Gemini在PND管理建議的有效性,並與現有指導方針比較。這項2024年6月的研究使用「圍手術期神經認知障礙的護理方案表」生成AI建議,並由來自五國的評審進行評估。結果顯示,兩者的建議與指導方針相似,但仍需進一步驗證和臨床醫師的反饋,才能應用於臨床。 PubMed DOI

這項研究比較了兩個大型語言模型,ChatGPT-4.0 和 Gemini,在解釋神經外科影像問題上的表現。研究提出250個問題,結果顯示ChatGPT-4.0的正確回答率為33.6%,明顯優於Gemini的0.4%。在某本教科書的問題中,ChatGPT-4.0的正確率達50%,而另一個教科書則為17.7%。Gemini的「無法回答」率高,顯示其在影像解釋上存在困難。這些結果顯示,AI在神經外科視覺解釋方面仍需進一步改進。 PubMed DOI

這項研究評估了兩個人工智慧模型,ChatGPT-4o 和 Gemini Advanced,與美國外科醫學會2022年脊椎損傷管理指導方針的一致性。研究設計了52個問題,結果顯示ChatGPT-4o的一致率為73.07%,正確回答38題;而Gemini Advanced為69.23%,正確回答36題。兩者在臨床資訊一致率均為75%。Gemini在診斷性問題上表現較佳,但ChatGPT在治療性問題上較強。整體而言,這些模型在脊椎損傷管理上顯示潛力,但仍有改進空間。 PubMed DOI

這項研究評估了ChatGPT-4.0在頸椎和脊髓損傷管理上與神經外科醫師學會(CNS)指導方針的一致性。共設計36個問題,分為治療性、診斷性和臨床評估類型。結果顯示,61.1%的回應與指導方針一致,其中治療性問題的符合率為70.8%。不過,對於I級證據的建議,ChatGPT表現不佳,僅有20%的符合率。總體來看,雖然ChatGPT在某些方面表現中等,但醫療人員在使用AI建議時仍需謹慎,待更穩健的模型出現。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在系統性文獻回顧中的篩選效果,並與傳統手動篩選及機器學習工具進行比較。研究使用ChatGPT-4o和Claude-3.5進行篩選,結果顯示LLMs在全文篩選中敏感度達0.87、特異度0.96,AUC為0.96;標題和摘要篩選的敏感度為0.73,經修正後提升至0.98,特異度保持高達0.99。相比之下,ASReview和Abstrackr的表現較差。結果顯示LLMs能有效提升文獻篩選的準確性與效率,減輕工作負擔。 PubMed DOI

這項研究發現,像ChatGPT-4等大型語言模型在協助制定臨床指引時,能幫忙搜尋資料和草擬建議,但還無法獨立完成系統性文獻搜尋和評估偏誤。雖然LLM產出的指引品質稍低於專家,但整體表現相近,有潛力節省時間和資源,未來還需更多研究和合作才能安全應用於臨床。 PubMed DOI

這項研究比較ChatGPT-Omni和Gemini兩款AI在500題神經外科案例題的表現。結果顯示,ChatGPT-Omni在準確性、相關性和清晰度上都比Gemini好,不論初次還是後續評估都領先。雖然兩者都有進步,但ChatGPT-Omni在所有神經外科情境下表現都較佳,更適合用於臨床決策和教育輔助。 PubMed DOI

這項研究比較ChatGPT-Omni和Gemini兩款AI語言模型在500題神經外科案例題的表現。結果顯示,ChatGPT-Omni在準確性、相關性和清晰度上都比Gemini優秀,不論初次或後續測試都拿到較高分。雖然兩者都有進步,但ChatGPT-Omni始終領先,顯示它在神經外科決策和教學上很有潛力。 PubMed DOI