原始文章

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI


站上相關主題文章列表

ChatGPT是醫學生的好幫手,但回答可能不完全正確,需小心。研究發現,ChatGPT3.5和ChatGPT4在牙周病學問題上的正確率分別為58%和74%。雖然ChatGPT4表現較佳,仍可能有誤差。使用者應該謹慎,需另外驗證ChatGPT提供的資訊。 PubMed DOI

這項研究評估了具影像識別能力的AI ChatGPT-4V在回答日本國家牙科考試(JNDE)影像問題的表現,特別針對2023年1月的考題。結果顯示,整體正確率為35.0%,必修問題的準確率較高(57.1%),但臨床實務問題較低(28.6%)。在牙科麻醉學和根管治療方面表現良好,準確率超過70%。然而,影像數量越多,準確率越低,顯示處理複雜影像的挑戰。雖然前景可期,但目前尚未完全具備作為牙科學生教育工具的能力,需進一步發展和測試。 PubMed DOI

最近,OpenAI的ChatGPT在醫療和教育領域的應用引起關注。一項研究評估了ChatGPT在牙科考試中的表現,發現其在知識性問題上達到80%的準確率,尤其是ChatGPT 4在牙科入學考試中表現優異,知識性問題準確率高達94%。雖然在數學分析方面表現不佳,但整體來看,ChatGPT有潛力提升牙科教育和實踐,特別是在特定領域的進一步改進上。 PubMed DOI

這項研究分析了不同大型語言模型(LLMs)在牙科和根管治療學生評估中的表現。共測試151道選擇題,結果顯示ChatGPT-4.0o的準確率最高,達72%,其次是ChatGPT-4.0的62%、Gemini 1.0的44%和ChatGPT-3.5的25%。不同模型之間的表現差異明顯,特別是ChatGPT-4系列表現最佳。雖然這些模型能協助回答牙科問題,但效果因模型而異,顯示出ChatGPT-4系列在牙科教育上的潛力。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在牙科學生對牙周手術知識的有效性,共有134名學生參加。結果顯示,ChatGPT-3.5的平均回應時間為3.63秒,準確度得分21.51分;而ChatGPT-4的回應時間較長,為12.49秒,得分20分。雖然兩者的準確性未達學生水平,但ChatGPT-4的開放式回答與教師評估一致,顯示其在學生學習及臨床評估中的潛力。 PubMed DOI

這項研究比較了ChatGPT-3.5和ChatGPT-4o在日本國家牙科考試中的表現,分析了1399道問題。結果顯示,ChatGPT-4o的正確回答率達84.63%,明顯高於ChatGPT-3.5的45.46%。特別是在口腔外科、病理學、藥理學和微生物學等領域,ChatGPT-4o的表現更為優異。這些結果顯示,ChatGPT-4o可作為牙科教育和考試準備的有用輔助工具,提升臨床推理和牙科知識的能力。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人—ChatGPT-4o、MedGebra GPT4o、Meta Llama 3 和 Gemini Advanced,在回答牙髓學的多選題表現。從牙髓學教科書中選取100道題目,進行了兩輪測試。 結果顯示,ChatGPT-4o在兩輪測試中表現最穩定,MedGebra GPT4o在第一輪達到93%的最高準確率,而ChatGPT-4o在第二輪表現最佳(90%)。Meta Llama 3的表現較弱,正確率分別為73%和75%。總體來看,ChatGPT-4o和MedGebra GPT4o在此領域表現優異,但Meta Llama 3和Gemini Advanced仍需改進。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在提供創傷性牙齒損傷資訊上的表現,針對40個問題進行分析。主要發現包括:ChatGPT 3.5的原創回應較多,且可讀性稍好(FRES得分39.732),而4.0在定義和診斷的質量上表現較佳。雖然兩者在可讀性和可靠性上有挑戰,但仍提供高質量資訊,建議作為牙科教育的輔助資源。 PubMed DOI

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 PubMed DOI

這項研究評估了多模態人工智慧模型ChatGPT-4o在根管治療中的診斷準確性,並與牙科學生進行比較。研究對象為三年級和五年級的學生,他們根據放射線影像、臨床照片和病歷回答15道選擇題。結果顯示,ChatGPT-4o的正確率達91.4%,明顯超過三年級的60.8%和五年級的79.5%。統計分析顯示各組之間的準確性有顯著差異,ChatGPT-4o的表現更為優越。研究結果顯示,ChatGPT-4o在牙科教育中,特別是根管治療方面,具有很大的潛力。 PubMed DOI