原始文章

這項研究比較四款聊天機器人在口腔健康探究式學習的表現。結果發現,ChatGPT 3.5 最會出自我評量題,Microsoft Copilot 答題最準。不同機器人在不同主題和難度下表現不一,簡單題目答得比較好。整體來說,聊天機器人有潛力,但還沒辦法完全取代真人老師。 PubMed DOI


站上相關主題文章列表

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI

這項研究比較了ChatGPT-3.5、Copilot和Gemini三款聊天機器人,發現它們回答根管再治療相關問題時,內容都太難懂,超過一般病人能輕鬆理解的程度。雖然Gemini表現最好,但還是沒達到理想的衛教標準,顯示這些AI工具未來還需要加強,才能真正幫助病人了解醫療資訊。 PubMed DOI

這項研究發現,AI聊天機器人回答矯正牙科問題的準確度普遍比牙醫系學生和一般牙醫師高,但還是比不上矯正專科醫師。ChatGPT-4o的準確度最接近專科醫師,不過ChatGPT-4在回答上一致性最好。有些AI(像ChatGPT-4o、Claude 3.5 Sonnet)一致性較差,可能導致錯誤資訊傳播。AI可輔助病患教育,但仍需專業把關。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究發現,牙醫學生如果用ChatGPT搭配影片學習,無論在操作技能、自信心還是學習動機上,都比只看影片的學生表現更好,學習壓力也比較小。特別是空間能力較弱的學生,進步最多。整體來說,ChatGPT有助於提升牙醫技能教學的效果,讓教學方式更現代化。 PubMed DOI

這項研究發現,不同AI聊天機器人在幫醫學生出單一最佳答案題目時,品質和一致性都有差異,沒有哪一個特別突出。所有AI產生的題目都還是需要專家審查,無法完全取代人類。AI出題也對傳統的認知能力分級方式帶來挑戰。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究設計了一個用 ChatGPT-4 進行 AI 角色扮演的活動,讓牙科相關科系學生模擬病患諮詢和老師討論。學生普遍覺得活動真實又實用,對臨床技能練習很有幫助,操作簡單、成本低(20 人只花約 13 美元)。這種方式有助同儕學習,也能發現自己在病史詢問上的不足,未來有潛力應用於臨床訓練,但還需更多研究證實成效。 PubMed DOI

這項研究發現,無論是病患還是矯正牙醫,都認為專家的回答最專業、最值得信賴。雖然 ChatGPT-4.0 有些題目表現不錯,但整體還是比不上專家;Microsoft Copilot 的表現則最弱。總結來說,AI 聊天機器人目前在矯正牙科領域,還無法完全取代專業醫師的建議。 PubMed DOI