原始文章

這項研究發現,ChatGPT-4.0在ITI植牙認證考試的表現已經跟合格牙醫師差不多,明顯比ChatGPT-3.5好。雖然AI有潛力成為牙科專業的輔助工具,但還需要進一步研究,尤其是針對能看懂影像和影片的AI模型。 PubMed DOI


站上相關主題文章列表

這項研究評估了四款人工智慧聊天機器人—ChatGPT-4o、MedGebra GPT4o、Meta Llama 3 和 Gemini Advanced,在回答牙髓學的多選題表現。從牙髓學教科書中選取100道題目,進行了兩輪測試。 結果顯示,ChatGPT-4o在兩輪測試中表現最穩定,MedGebra GPT4o在第一輪達到93%的最高準確率,而ChatGPT-4o在第二輪表現最佳(90%)。Meta Llama 3的表現較弱,正確率分別為73%和75%。總體來看,ChatGPT-4o和MedGebra GPT4o在此領域表現優異,但Meta Llama 3和Gemini Advanced仍需改進。 PubMed DOI

這項研究評估了ChatGPT-4.0和Gemini Advanced在2020及2021年土耳其牙科專業考試的表現。結果顯示,ChatGPT-4.0的正確回答率高於Gemini Advanced,2020年為83.3%對65%,2021年為80.5%對60.2%。雖然兩者都通過考試,但分數仍低於最佳人類考生。特別是在基礎科學和臨床科學方面表現不佳,只有在牙周病學上較為突出。總體而言,這些AI聊天機器人的表現未達最佳考生水準。 PubMed DOI

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究發現,無論是病患還是矯正牙醫,都認為專家的回答最專業、最值得信賴。雖然 ChatGPT-4.0 有些題目表現不錯,但整體還是比不上專家;Microsoft Copilot 的表現則最弱。總結來說,AI 聊天機器人目前在矯正牙科領域,還無法完全取代專業醫師的建議。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI

這項研究發現,ChatGPT-4o在日本牙體技術師考試的基礎知識題表現不錯,但遇到專業、需要看圖或操作的題目就比較不行。它在牙科材料題的正確率最高,但在矯正和兒童牙科技術題表現較差。整體來說,ChatGPT-4o適合當牙科學習輔助工具,但影像辨識和操作模擬能力還要再加強。 PubMed DOI

這項研究比較了ChatGPT-3.5、Gemini和Copilot三款AI聊天機器人在回答植牙常見問題時的表現。結果發現,三者正確性差不多,但Gemini的答案較完整,Copilot的一致性最好。不過,三款AI的正確率都不高,建議不能直接用來做牙科決策,還是要依靠專業醫師判斷。 PubMed DOI