原始文章

最近,OpenAI的ChatGPT在醫療和教育領域的應用引起關注。一項研究評估了ChatGPT在牙科考試中的表現,發現其在知識性問題上達到80%的準確率,尤其是ChatGPT 4在牙科入學考試中表現優異,知識性問題準確率高達94%。雖然在數學分析方面表現不佳,但整體來看,ChatGPT有潛力提升牙科教育和實踐,特別是在特定領域的進一步改進上。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在牙科知識評估中表現,ChatGPT3.5比ChatGPT4更準確。建議牙科學生將ChatGPT當作輔助學習工具,而非主要來源,以免誤導。 PubMed DOI

ChatGPT是醫學生的好幫手,但回答可能不完全正確,需小心。研究發現,ChatGPT3.5和ChatGPT4在牙周病學問題上的正確率分別為58%和74%。雖然ChatGPT4表現較佳,仍可能有誤差。使用者應該謹慎,需另外驗證ChatGPT提供的資訊。 PubMed DOI

研究比較了ChatGPT 3.5和4.0在回答牙科執照考試問題時的表現,發現4.0版本更準確,尤其對美國和英國考試問題回答得更好。這顯示GenAI在牙科領域有潛力,但仍需進一步改進,且應視情況而定。在牙科領域應用GenAI可能會影響牙醫與患者的溝通和專業培訓。 PubMed DOI

研究比較了持牌牙醫和兩個人工智慧聊天機器人(ChatGPT 3.5 和 4.0)在回答 2022 年植牙牙科認證考試時的表現。結果顯示,兩個聊天機器人都通過了考試,其中 4.0 版本的分數明顯比 3.5 版本和持牌牙醫高。這次考試顯示,人工智慧聊天機器人的表現勝過持牌牙醫。 PubMed DOI

這項研究分析了三個大型語言模型(LLMs)—ChatGPT(4和3.5版)及Google Gemini—在回答美國牙周病學會的考試問題時的準確性,並與人類研究生的表現進行比較。結果顯示,ChatGPT-4的準確率達79.57%,表現最佳;Google Gemini的準確率介於70.65%到75.73%之間,優於ChatGPT-3.5,但仍低於三年級住院醫師。ChatGPT-3.5的表現最差,準確率在59.27%到69.83%之間。研究指出LLMs在牙周病學教育上的潛力,但也需進一步研究以克服其限制。 PubMed DOI

這項研究評估了具影像識別能力的AI ChatGPT-4V在回答日本國家牙科考試(JNDE)影像問題的表現,特別針對2023年1月的考題。結果顯示,整體正確率為35.0%,必修問題的準確率較高(57.1%),但臨床實務問題較低(28.6%)。在牙科麻醉學和根管治療方面表現良好,準確率超過70%。然而,影像數量越多,準確率越低,顯示處理複雜影像的挑戰。雖然前景可期,但目前尚未完全具備作為牙科學生教育工具的能力,需進一步發展和測試。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在牙科診斷中的有效性,特別是針對複雜病患案例的表現。結果顯示,ChatGPT 3.5在自身診斷的準確率為40%,而參考文獻時為70%。相比之下,ChatGPT 4的表現更佳,自身診斷準確率達62%,參考文獻時則為80%。這些結果顯示,ChatGPT在牙科診所作為診斷輔助工具具有顯著潛力,能有效處理複雜案例。 PubMed DOI

這項研究探討了ChatGPT 3.5在回答牙科問題的準確性和完整性。十位專家提出30個問題,並用李克特量表評估ChatGPT的回答。結果顯示,雖然ChatGPT的準確性(中位數5.50)和完整性(中位數2.00)表現不錯,但仍有改進空間。經過重新評估後,其表現顯著提升,顯示機器學習的潛力。不過,研究也指出仍有不準確之處,特別是參考資料,強調人類判斷在臨床決策中的重要性,以及基於證據的醫療實踐的必要性。 PubMed DOI

這項研究評估了ChatGPT-3.5和ChatGPT-4在牙科學生對牙周手術知識的有效性,共有134名學生參加。結果顯示,ChatGPT-3.5的平均回應時間為3.63秒,準確度得分21.51分;而ChatGPT-4的回應時間較長,為12.49秒,得分20分。雖然兩者的準確性未達學生水平,但ChatGPT-4的開放式回答與教師評估一致,顯示其在學生學習及臨床評估中的潛力。 PubMed DOI

這項研究比較了ChatGPT-3.5和ChatGPT-4o在日本國家牙科考試中的表現,分析了1399道問題。結果顯示,ChatGPT-4o的正確回答率達84.63%,明顯高於ChatGPT-3.5的45.46%。特別是在口腔外科、病理學、藥理學和微生物學等領域,ChatGPT-4o的表現更為優異。這些結果顯示,ChatGPT-4o可作為牙科教育和考試準備的有用輔助工具,提升臨床推理和牙科知識的能力。 PubMed DOI