原始文章

這項研究發現,ScholarGPT 在牙髓根尖手術問題的答題正確率最高,達97.7%,優於 ChatGPT-4o(90.1%)和 Google Gemini(59.5%)。主要原因是 ScholarGPT 有用學術資料庫,答案更精確。結果顯示,專為學術領域訓練的 GPT 模型在牙科主題上較可靠,但仍需更多研究來開發專門的牙髓病學模型。 PubMed DOI


站上相關主題文章列表

這項研究評估了Scholar GPT在口腔及顏面外科技術問題上的表現,並與ChatGPT進行比較。共評估60個問題,涵蓋阻生牙、牙齒植體等主題。結果顯示,Scholar GPT的全球質量評分平均為4.48,明顯高於ChatGPT的3.1,且提供的回應更一致且高品質。研究建議,利用學術資料庫的GPT模型能產生更準確的信息,並建議開發專門針對口腔及顏面外科的模型,以提升AI生成內容的質量。 PubMed DOI

這項研究比較了ChatGPT和Gemini兩個AI語言模型在牙齒脫位問題上的回答準確性。研究使用了33個問題,並由四位小兒牙醫評估回答。結果顯示,Gemini的平均得分顯著高於ChatGPT(p = 0.001)。雖然ChatGPT在開放式問題和是非題上表現較好,但在選擇題上不佳。整體來看,Gemini的回答更準確(p = 0.004)。這些結果顯示兩個模型在牙科領域有潛力,但仍需進一步研究和改進。 PubMed DOI

這項研究評估了三款AI聊天機器人(ChatGPT-3.5、ChatGPT-4和Google Gemini)在提供牙科植牙資訊的可靠性與實用性。研究提出75個相關問題,並由兩位專家評估回答。結果顯示,Google Gemini在可靠性和實用性上表現最佳,特別是在建議諮詢牙科專家方面,對98.7%的問題都有建議。相比之下,ChatGPT-4和ChatGPT-3.5的建議比例較低。整體而言,雖然三者皆具可接受的表現,但Google Gemini因其與專家建議的一致性而更為突出。 PubMed DOI

這項研究探討了不同AI聊天機器人對再生性根管治療的回應準確性。研究人員根據美國根管治療學會的指導方針,設計了23個問題,並向三個AI平台詢問,收集了1,380個回應。結果顯示,帶有PDF插件的ChatGPT-4的正確率最高,達98.1%,而Gemini最低,僅48%。雖然其他平台有潛力,但在臨床應用上仍需改進。研究建議未來開發專為根管治療設計的AI工具。 PubMed DOI

這項研究分析了四個先進的人工智慧模型在回答土耳其牙科專業考試問題的表現,共240題。結果顯示,Gemini 2.0 Advanced在2020年以96.80%的準確率最佳,2021年則是ChatGPT-o1以97.88%領先。整體來看,ChatGPT-o1和Gemini 2.0的準確率分別為97.46%和97.90%,明顯優於其他模型。研究也指出,使用AI評估牙科能力的倫理問題,並建議對考試知識進行更嚴格的評估,強調AI在牙科教育中的潛在應用。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人—ChatGPT-4o、MedGebra GPT4o、Meta Llama 3 和 Gemini Advanced,在回答牙髓學的多選題表現。從牙髓學教科書中選取100道題目,進行了兩輪測試。 結果顯示,ChatGPT-4o在兩輪測試中表現最穩定,MedGebra GPT4o在第一輪達到93%的最高準確率,而ChatGPT-4o在第二輪表現最佳(90%)。Meta Llama 3的表現較弱,正確率分別為73%和75%。總體來看,ChatGPT-4o和MedGebra GPT4o在此領域表現優異,但Meta Llama 3和Gemini Advanced仍需改進。 PubMed DOI

這項研究比較了ChatGPT-3.5、Copilot和Gemini三款聊天機器人,發現它們回答根管再治療相關問題時,內容都太難懂,超過一般病人能輕鬆理解的程度。雖然Gemini表現最好,但還是沒達到理想的衛教標準,顯示這些AI工具未來還需要加強,才能真正幫助病人了解醫療資訊。 PubMed DOI

這項研究發現,ChatGPT-4 在回答牙髓病學問題時,準確度和資訊完整性都比 Google Bard 和 ChatGPT-3.5 更好,錯誤率也最低。不過,所有 AI 聊天機器人偶爾還是會出錯,所以臨床上用這些工具時要特別注意。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究比較四種AI模型在回答再生性牙髓治療問題時的準確度,發現沒有一款AI能超過八成正確率。用英文提問、加上明確提示語時,Claude表現最好;Grok用土耳其語、沒提示語時最差。整體來說,AI目前還不適合直接用在臨床決策,建議還是要參考專業指引,未來AI在牙科領域還有進步空間。 PubMed DOI