原始文章

這項研究發現,ChatGPT在沒有指引下,判斷是否需額外X光檢查的準確度僅49%;給予臨床指引後提升到70%,再進一步到91%。只要有適當指引,ChatGPT在智齒術前評估上,表現接近專科醫師,有潛力成為臨床輔助工具。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT-4在牙科領域進行基於證據的決策的可行性。兩位牙醫與ChatGPT-4互動,分析五個臨床情境,並參考Cochrane、ADA和PubMed的文獻。結果顯示,ChatGPT-4表現穩定,能有效識別相關證據並提供摘要,節省臨床醫師的時間。不過,它無法提供直接的網頁連結到引用的文章,這是個限制。總體而言,ChatGPT-4在EBDM中顯示出潛力,但臨床醫師仍需負責評估證據和做出決策。 PubMed DOI

這項研究評估了基於人工智慧的聊天機器人,特別是ChatGPT 3.5和Claude-instant,在複雜口腔外科案例中輔助臨床決策的效果。口腔及顏面外科醫生設計了一系列問題,並透過專業評估工具來檢視聊天機器人的回應質量。結果顯示,ChatGPT和Claude-instant都提供高質量的回應,ChatGPT的質量評分分別為86%和79.6%,而Claude-instant則為81.25%和89%。這些結果顯示聊天機器人技術的進步,可能提升醫療效率並降低成本。 PubMed DOI

本研究評估了ChatGPT-4.0在識別受影響的上顎犬齒位置及檢測相鄰切牙吸收變化的有效性,使用全景放射線影像(PRs)。對105名單側受影響患者進行回顧性分析,結果顯示ChatGPT-4.0在犬齒定位的準確率僅37.1%,在腭側組表現較佳。吸收檢測準確率為46.0%,但在有吸收案例的識別上表現不佳。總體而言,研究認為ChatGPT-4.0在這兩項任務上的準確性不足,不適合臨床使用。 PubMed DOI

這篇系統性回顧發現,ChatGPT在口腔顎面外科的臨床決策、手術規劃和病患衛教等方面有輔助效果,尤其在產生手術同意書和術後支持表現不錯,但在藥理學和複雜病例處理上仍有限。建議將ChatGPT作為輔助工具,需專業人員監督,不能完全取代醫師判斷。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀下顎智齒拔除用的全口X光片時,正確率只有38.44%,表現不夠理想。雖然回答有一定一致性,但重複性普通,對複雜影像常出錯。現階段還不適合單獨用於牙科臨床,仍需專家把關,未來還要加強AI訓練和開發。 PubMed DOI

這項研究比較ChatGPT-4o和Deepseek-v3在16個虛構口腔病理案例的診斷表現。結果顯示,Deepseek-v3的診斷準確度和文獻引用都比ChatGPT-4o好,平均分數也較高(4.02比3.15)。雖然兩者都能協助臨床醫師,但在文獻正確性上還有待加強。目前Deepseek-v3在口腔病理診斷方面表現較優。 PubMed DOI

這項研究發現,ChatGPT(GPT-4)在兒童牙科診斷上表現不錯,準確率有72.2%,尤其擅長找出蛀牙。不過,在建議治療方案時,準確率就掉到47.2%。所以,ChatGPT可以當作診斷的輔助工具,但在治療決策上還是不夠穩當,不能完全取代專業牙醫。 PubMed

Bagde 等人(2023)系統性回顧發現,ChatGPT 在醫學和牙醫領域的研究、教育及臨床決策上有潛力,但目前仍有準確性、可靠性和倫理等問題待解決,需更多高品質研究來驗證其效益。 PubMed DOI

這項研究發現,ScholarGPT 在牙髓根尖手術問題的答題正確率最高,達97.7%,優於 ChatGPT-4o(90.1%)和 Google Gemini(59.5%)。主要原因是 ScholarGPT 有用學術資料庫,答案更精確。結果顯示,專為學術領域訓練的 GPT 模型在牙科主題上較可靠,但仍需更多研究來開發專門的牙髓病學模型。 PubMed DOI

這項研究比較了ChatGPT-3.5、Gemini和Copilot三款AI聊天機器人在回答植牙常見問題時的表現。結果發現,三者正確性差不多,但Gemini的答案較完整,Copilot的一致性最好。不過,三款AI的正確率都不高,建議不能直接用來做牙科決策,還是要依靠專業醫師判斷。 PubMed DOI