原始文章

這項研究比較了 Ernie Bot、ChatGPT 和 Gemini 三款 AI 對成人牙齒矯正常見問題的回答表現。結果發現,三者在正確性、清楚度和同理心等六項指標上,大多只拿到中等分數,很少有滿分。雖然 AI 可以輔助解答,但建議還是要有專業醫師把關,未來在正確性和病患照護上還有進步空間。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款AI聊天機器人(ChatGPT-3.5、ChatGPT-4和Google Gemini)在提供牙科植牙資訊的可靠性與實用性。研究提出75個相關問題,並由兩位專家評估回答。結果顯示,Google Gemini在可靠性和實用性上表現最佳,特別是在建議諮詢牙科專家方面,對98.7%的問題都有建議。相比之下,ChatGPT-4和ChatGPT-3.5的建議比例較低。整體而言,雖然三者皆具可接受的表現,但Google Gemini因其與專家建議的一致性而更為突出。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)——ChatGPT-3.5、ChatGPT-4 和 Gemini,針對磨牙症的資訊提供效果。研究發現: 1. **可讀性**:三個模型的可讀性相似,但 Gemini 的回應對一般讀者來說更易懂。 2. **準確性**:GPT-3.5 的準確率最高,為 68.33%,GPT-4 為 65%,Gemini 則為 55%,三者差異不大。 3. **一致性**:所有模型在不同時間的回應一致性高,GPT-3.5 最高,達 95%。 總結來說,這些模型雖然表現中等,但不應取代專業牙科建議。 PubMed DOI

這項研究評估了六個大型語言模型(LLMs)在兒童牙科的有效性,包括Google的Gemini、OpenAI的ChatGPT系列和微軟的Copilot。研究者提出十個臨床問題,並由兩位評估者根據0到10的標準進行評分。結果顯示,ChatGPT-4得分最高(8.08),其次是Gemini Advanced(8.06)和ChatGPT-4o(8.01)。雖然LLMs在支持兒童牙科方面有潛力,但專業人員應批判性地使用這些工具,並不應完全依賴。 PubMed DOI

這項研究探討了對話式人工智慧ChatGPT-4在解答正畸病人常見問題的有效性,並與兩位正畸醫師的回答進行比較。研究中,ChatGPT在30個問題中有61個案例排名第一,平均排名為1.69,明顯優於正畸醫師的排名(醫師A: 2.23,醫師B: 2.08)。兩位醫師之間的排名差異不大,而ChatGPT的排名與評估者共識有強正相關(Spearman係數0.69)。總體來看,研究建議ChatGPT-4在回答病人常見問題上可能更有效,尤其是在正畸領域。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI

這項研究發現,AI聊天機器人回答矯正牙科問題的準確度普遍比牙醫系學生和一般牙醫師高,但還是比不上矯正專科醫師。ChatGPT-4o的準確度最接近專科醫師,不過ChatGPT-4在回答上一致性最好。有些AI(像ChatGPT-4o、Claude 3.5 Sonnet)一致性較差,可能導致錯誤資訊傳播。AI可輔助病患教育,但仍需專業把關。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究發現,無論是病患還是矯正牙醫,都認為專家的回答最專業、最值得信賴。雖然 ChatGPT-4.0 有些題目表現不錯,但整體還是比不上專家;Microsoft Copilot 的表現則最弱。總結來說,AI 聊天機器人目前在矯正牙科領域,還無法完全取代專業醫師的建議。 PubMed DOI

這項研究比較了ChatGPT-3.5、Gemini和Copilot三款AI聊天機器人在回答植牙常見問題時的表現。結果發現,三者正確性差不多,但Gemini的答案較完整,Copilot的一致性最好。不過,三款AI的正確率都不高,建議不能直接用來做牙科決策,還是要依靠專業醫師判斷。 PubMed DOI