原始文章

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 PubMed DOI

這項研究評估了四款AI聊天機器人—GPT-3.5、GPT-4、Gemini和Bing—在牙齒修復學常見問題的回應效果。研究人員針對植牙、固定修復、全口假牙和可拆式部分假牙等領域設計問題,並使用統計方法分析回應。結果顯示,聊天機器人之間的有效性差異明顯,特別是Bing表現最差。雖然Bing、Gemini和GPT-4在一致性上表現尚可,但GPT-3.5則不理想。整體來看,研究強調了AI聊天機器人在提供高品質牙齒修復相關答案上的限制。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI

這項研究發現,AI聊天機器人回答矯正牙科問題的準確度普遍比牙醫系學生和一般牙醫師高,但還是比不上矯正專科醫師。ChatGPT-4o的準確度最接近專科醫師,不過ChatGPT-4在回答上一致性最好。有些AI(像ChatGPT-4o、Claude 3.5 Sonnet)一致性較差,可能導致錯誤資訊傳播。AI可輔助病患教育,但仍需專業把關。 PubMed DOI

這項研究比較 GPT-3.5、Gemini 和 Copilot 三款聊天機器人,發現它們回答牙科植體病人常見問題時,資訊穩定且一致,但準確度還不夠高。Copilot 的答案最正確,Gemini 的一致性最好。總結來說,這些聊天機器人雖然能提供基本資訊,但在細節和正確性上還需要加強,才能更好地幫助病人。 PubMed DOI

這項研究比較 ChatGPT-4o、DeepSeek R1 和 Gemini 2 Pro 在固定假牙學題目的表現,發現三者準確度中等(43–71%),再現性也不錯。ChatGPT 選擇題最穩定,ChatGPT 和 Gemini 簡答題表現較佳。Gemini 和 DeepSeek 看過正確答案後有進步,但整體準確度還沒達到臨床標準。 PubMed DOI

這項研究發現,無論是病患還是矯正牙醫,都認為專家的回答最專業、最值得信賴。雖然 ChatGPT-4.0 有些題目表現不錯,但整體還是比不上專家;Microsoft Copilot 的表現則最弱。總結來說,AI 聊天機器人目前在矯正牙科領域,還無法完全取代專業醫師的建議。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI

這項研究比較了ChatGPT-3.5、Gemini和Copilot三款AI聊天機器人在回答植牙常見問題時的表現。結果發現,三者正確性差不多,但Gemini的答案較完整,Copilot的一致性最好。不過,三款AI的正確率都不高,建議不能直接用來做牙科決策,還是要依靠專業醫師判斷。 PubMed DOI