原始文章

這項研究探討了不同AI聊天機器人對再生性根管治療的回應準確性。研究人員根據美國根管治療學會的指導方針,設計了23個問題,並向三個AI平台詢問,收集了1,380個回應。結果顯示,帶有PDF插件的ChatGPT-4的正確率最高,達98.1%,而Gemini最低,僅48%。雖然其他平台有潛力,但在臨床應用上仍需改進。研究建議未來開發專為根管治療設計的AI工具。 PubMed DOI


站上相關主題文章列表

這項研究評估了四款人工智慧聊天機器人—ChatGPT-4o、MedGebra GPT4o、Meta Llama 3 和 Gemini Advanced,在回答牙髓學的多選題表現。從牙髓學教科書中選取100道題目,進行了兩輪測試。 結果顯示,ChatGPT-4o在兩輪測試中表現最穩定,MedGebra GPT4o在第一輪達到93%的最高準確率,而ChatGPT-4o在第二輪表現最佳(90%)。Meta Llama 3的表現較弱,正確率分別為73%和75%。總體來看,ChatGPT-4o和MedGebra GPT4o在此領域表現優異,但Meta Llama 3和Gemini Advanced仍需改進。 PubMed DOI

這項研究評估了六款人工智慧應用程式在回答脫落牙齒緊急處理問題的表現。測試的應用程式包括不同版本的ChatGPT、Perplexity、Gemini和Copilot。結果顯示,ChatGPT 4.0的準確率最高,達95.6%,而Perplexity最低,僅67.2%。除了ChatGPT 4.0外,其他聊天機器人都不夠可靠。研究建議將國際牙科外傷學會的指導方針納入聊天機器人的資料庫,以提升準確性和可靠性。 PubMed DOI

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 PubMed DOI

這項研究評估了兩個版本的ChatGPT—ChatGPT-4和ChatGPT-4o—在本科牙髓學教育的多選題回答準確性。共提出60個問題,結果顯示ChatGPT-4o的準確率為92.8%,明顯高於ChatGPT-4的81.7%,且p值小於0.001。雖然問題組影響準確率,但一天中的時間對兩者無影響。兩個模型的一致性無顯著差異。總體來看,ChatGPT-4o在準確性上優於ChatGPT-4,顯示AI在牙科教育中的潛在價值,但也需注意其局限性與風險。 PubMed DOI

這項研究評估了多模態人工智慧模型ChatGPT-4o在根管治療中的診斷準確性,並與牙科學生進行比較。研究對象為三年級和五年級的學生,他們根據放射線影像、臨床照片和病歷回答15道選擇題。結果顯示,ChatGPT-4o的正確率達91.4%,明顯超過三年級的60.8%和五年級的79.5%。統計分析顯示各組之間的準確性有顯著差異,ChatGPT-4o的表現更為優越。研究結果顯示,ChatGPT-4o在牙科教育中,特別是根管治療方面,具有很大的潛力。 PubMed DOI

這項研究發現,ChatGPT-4 在回答牙髓病學問題時,準確度和資訊完整性都比 Google Bard 和 ChatGPT-3.5 更好,錯誤率也最低。不過,所有 AI 聊天機器人偶爾還是會出錯,所以臨床上用這些工具時要特別注意。 PubMed DOI

這項研究發現,ScholarGPT 在牙髓根尖手術問題的答題正確率最高,達97.7%,優於 ChatGPT-4o(90.1%)和 Google Gemini(59.5%)。主要原因是 ScholarGPT 有用學術資料庫,答案更精確。結果顯示,專為學術領域訓練的 GPT 模型在牙科主題上較可靠,但仍需更多研究來開發專門的牙髓病學模型。 PubMed DOI

這項研究比較四種AI模型在回答再生性牙髓治療問題時的準確度,發現沒有一款AI能超過八成正確率。用英文提問、加上明確提示語時,Claude表現最好;Grok用土耳其語、沒提示語時最差。整體來說,AI目前還不適合直接用在臨床決策,建議還是要參考專業指引,未來AI在牙科領域還有進步空間。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI