原始文章

這項研究比較了AI工具(ChatGPT-4)和人類導師在牙科學生作業反饋的效果。共評估194個回答,結果顯示在某些問題上AI的表現更佳,尤其在識別錯誤和提供清晰建議方面。雖然學生對人類導師的反饋感到更舒適,但在理解錯誤和批判性思考的促進上,兩者並無顯著差異。整體來看,AI工具有潛力成為人類輔導的有效補充,能更快速提供詳細反饋。 PubMed DOI


站上相關主題文章列表

這項研究探討個人化回饋對醫學教育學習成果的影響,特別是透過應用程式進行自我測試。德國醫學生參加隨機試驗,接受專家或ChatGPT的回饋。結果顯示,經常使用應用程式的學生在畢業考試中表現較佳,但兩種回饋的分數差異不大(ChatGPT 51.8%,專家 55.8%,p = 0.06)。研究建議需改善應用程式和回饋機制,以提升有效性,並對其他學術領域提供啟示。 PubMed DOI

這項研究評估了ChatGPT-4.0和Gemini Advanced在2020及2021年土耳其牙科專業考試的表現。結果顯示,ChatGPT-4.0的正確回答率高於Gemini Advanced,2020年為83.3%對65%,2021年為80.5%對60.2%。雖然兩者都通過考試,但分數仍低於最佳人類考生。特別是在基礎科學和臨床科學方面表現不佳,只有在牙周病學上較為突出。總體而言,這些AI聊天機器人的表現未達最佳考生水準。 PubMed DOI

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI

人工智慧(AI)正在改變牙科領域,特別是ChatGPT等工具在診斷和治療計畫中展現潛力。本研究調查了384名印度馬哈拉施特拉邦的牙科學生和教職員對ChatGPT的認知與使用情況。結果顯示,87.2%的受訪者認識到ChatGPT的AI特性,研究生對其知識和使用意願較高,但教職員對數據隱私的擔憂更重。為了更好地整合AI於牙科教育,需開發針對性的培訓計畫。 PubMed DOI

這項研究評估了多模態人工智慧模型ChatGPT-4o在根管治療中的診斷準確性,並與牙科學生進行比較。研究對象為三年級和五年級的學生,他們根據放射線影像、臨床照片和病歷回答15道選擇題。結果顯示,ChatGPT-4o的正確率達91.4%,明顯超過三年級的60.8%和五年級的79.5%。統計分析顯示各組之間的準確性有顯著差異,ChatGPT-4o的表現更為優越。研究結果顯示,ChatGPT-4o在牙科教育中,特別是根管治療方面,具有很大的潛力。 PubMed DOI

這項研究發現,AI(如ChatGPT-4o、Gemini Flash 1.5)在OSCE臨床技能評分上,給分普遍比人工評分高且更一致,尤其在視覺技能(像打針、打結)表現較佳。但遇到需要聽力或口語判斷的項目時,AI的評分準確度就比較差。整體來說,AI有潛力輔助OSCE評分,但針對溝通或聲音技能還需加強。 PubMed DOI

這項研究發現,牙醫系學生在牙齒解剖學選擇題考試的表現優於ChatGPT,學生平均分數74.28%,ChatGPT則為60%。雖然ChatGPT有基本理解力,能及格,但準確度和可靠性還是不夠,所以不建議單靠它來學牙齒解剖學。 PubMed DOI

這項研究設計了一個用 ChatGPT-4 進行 AI 角色扮演的活動,讓牙科相關科系學生模擬病患諮詢和老師討論。學生普遍覺得活動真實又實用,對臨床技能練習很有幫助,操作簡單、成本低(20 人只花約 13 美元)。這種方式有助同儕學習,也能發現自己在病史詢問上的不足,未來有潛力應用於臨床訓練,但還需更多研究證實成效。 PubMed DOI

這項研究發現,ChatGPT-4.0在ITI植牙認證考試的表現已經跟合格牙醫師差不多,明顯比ChatGPT-3.5好。雖然AI有潛力成為牙科專業的輔助工具,但還需要進一步研究,尤其是針對能看懂影像和影片的AI模型。 PubMed DOI

研究發現,讓牙醫系大一、大二學生用生成式AI聊天機器人練習病史詢問,有助提升自信心。大二學生更認同這工具的價值。雖然大家覺得這方式沒面對面互動有趣,但都支持把聊天機器人納入課程,當作輔助練習的工具。 PubMed DOI