原始文章

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款AI聊天機器人(ChatGPT-3.5、ChatGPT-4和Google Gemini)在提供牙科植牙資訊的可靠性與實用性。研究提出75個相關問題,並由兩位專家評估回答。結果顯示,Google Gemini在可靠性和實用性上表現最佳,特別是在建議諮詢牙科專家方面,對98.7%的問題都有建議。相比之下,ChatGPT-4和ChatGPT-3.5的建議比例較低。整體而言,雖然三者皆具可接受的表現,但Google Gemini因其與專家建議的一致性而更為突出。 PubMed DOI

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究比較了三款AI聊天機器人—ChatGPT-3.5、Gemini 1.5 Pro和Copilot—在回答口腔與顏面放射學常見問題的表現。研究選取了十五個問題,並由三位OMR專家根據科學準確性、易懂性和滿意度進行評估。結果顯示,雖然聊天機器人在科學準確性上無顯著差異,但整體文本較為複雜,需較高的閱讀水平。研究強調,與醫療專業人員驗證AI生成資訊對改善病患護理和安全性的重要性。 PubMed DOI

這項研究評估了四款AI聊天機器人—GPT-3.5、GPT-4、Gemini和Bing—在牙齒修復學常見問題的回應效果。研究人員針對植牙、固定修復、全口假牙和可拆式部分假牙等領域設計問題,並使用統計方法分析回應。結果顯示,聊天機器人之間的有效性差異明顯,特別是Bing表現最差。雖然Bing、Gemini和GPT-4在一致性上表現尚可,但GPT-3.5則不理想。整體來看,研究強調了AI聊天機器人在提供高品質牙齒修復相關答案上的限制。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究比較 GPT-3.5、Gemini 和 Copilot 三款聊天機器人,發現它們回答牙科植體病人常見問題時,資訊穩定且一致,但準確度還不夠高。Copilot 的答案最正確,Gemini 的一致性最好。總結來說,這些聊天機器人雖然能提供基本資訊,但在細節和正確性上還需要加強,才能更好地幫助病人。 PubMed DOI

這項研究比較 ChatGPT-4o、DeepSeek R1 和 Gemini 2 Pro 在固定假牙學題目的表現,發現三者準確度中等(43–71%),再現性也不錯。ChatGPT 選擇題最穩定,ChatGPT 和 Gemini 簡答題表現較佳。Gemini 和 DeepSeek 看過正確答案後有進步,但整體準確度還沒達到臨床標準。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI

這項研究比較了ChatGPT-3.5、Gemini和Copilot三款AI聊天機器人在回答植牙常見問題時的表現。結果發現,三者正確性差不多,但Gemini的答案較完整,Copilot的一致性最好。不過,三款AI的正確率都不高,建議不能直接用來做牙科決策,還是要依靠專業醫師判斷。 PubMed DOI