原始文章

這項研究發現,向ChatGPT-4提出具體問題,比起一般性問題,能得到更可靠且一致的牙科假牙相關答案。不過,雖然具體提問有助提升表現,ChatGPT的答案還是無法完全取代專業判斷,建議仍需專業人員把關。設計明確的問題,有助提升AI在牙科領域的實用性。 PubMed DOI


站上相關主題文章列表

這項研究評估了三款AI聊天機器人(ChatGPT-3.5、ChatGPT-4和Google Gemini)在提供牙科植牙資訊的可靠性與實用性。研究提出75個相關問題,並由兩位專家評估回答。結果顯示,Google Gemini在可靠性和實用性上表現最佳,特別是在建議諮詢牙科專家方面,對98.7%的問題都有建議。相比之下,ChatGPT-4和ChatGPT-3.5的建議比例較低。整體而言,雖然三者皆具可接受的表現,但Google Gemini因其與專家建議的一致性而更為突出。 PubMed DOI

這項研究評估了四款AI聊天機器人—GPT-3.5、GPT-4、Gemini和Bing—在牙齒修復學常見問題的回應效果。研究人員針對植牙、固定修復、全口假牙和可拆式部分假牙等領域設計問題,並使用統計方法分析回應。結果顯示,聊天機器人之間的有效性差異明顯,特別是Bing表現最差。雖然Bing、Gemini和GPT-4在一致性上表現尚可,但GPT-3.5則不理想。整體來看,研究強調了AI聊天機器人在提供高品質牙齒修復相關答案上的限制。 PubMed DOI

這項研究探討了ChatGPT在植牙支撐假牙治療計畫文獻的可靠性,提出六個具體問題並進行修訂。結果顯示: 1. **冠與植體比率**:初步認為高比率會導致骨喪失,修訂後認為現代植體可減輕此問題。 2. **後牙懸臂**:最初指出懸臂可能引發併發症,修訂後認為可行的長期選擇。 3. **後上顎固定植體**:原本支持固定以提高存活率,修訂後認為並非所有情況都需固定。 4. **患者偏好**:最初認為覆蓋假牙滿意度高,修訂後指出傳統假牙也可滿意。 5. **彈性與剛性系統**:初步建議彈性系統需更換頻繁,修訂後認為剛性系統不一定併發症多。 6. **固定與可拆卸假牙**:初步偏向固定,修訂後強調患者偏好因人而異。 總結來說,ChatGPT在評估文獻時存在困難,可能導致不準確的治療建議。 PubMed DOI

這項研究發現,不同的提問方式會影響GPT回答牙科植體問題的品質。雖然所有模型都能給出不錯的答案,但用情境化提示時,治療相關問題的回答較不清楚、相關性也較低,不過引用資料的表現較佳。整體來說,GPT能提供實用資訊,但提問設計還有改進空間。 PubMed DOI

這項研究發現,ChatGPT-4o在判讀下顎智齒拔除用的全口X光片時,正確率只有38.44%,表現不夠理想。雖然回答有一定一致性,但重複性普通,對複雜影像常出錯。現階段還不適合單獨用於牙科臨床,仍需專家把關,未來還要加強AI訓練和開發。 PubMed DOI

這項研究比較 GPT-3.5、Gemini 和 Copilot 三款聊天機器人,發現它們回答牙科植體病人常見問題時,資訊穩定且一致,但準確度還不夠高。Copilot 的答案最正確,Gemini 的一致性最好。總結來說,這些聊天機器人雖然能提供基本資訊,但在細節和正確性上還需要加強,才能更好地幫助病人。 PubMed DOI

這項研究比較 ChatGPT-4o、DeepSeek R1 和 Gemini 2 Pro 在固定假牙學題目的表現,發現三者準確度中等(43–71%),再現性也不錯。ChatGPT 選擇題最穩定,ChatGPT 和 Gemini 簡答題表現較佳。Gemini 和 DeepSeek 看過正確答案後有進步,但整體準確度還沒達到臨床標準。 PubMed DOI

這項研究發現,經過假牙修復專業資料微調的ChatGPT-4,在美國假牙修復專科住院醫師模擬考試的表現,明顯優於原始版本(正確率73.6%比62.7%)。微調能大幅提升AI在專業醫學領域的準確度,但部分主題還需加強訓練。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究發現,ChatGPT在回答人工耳蝸相關問題時,約有八成以上的答案正確且一致,尤其在基本知識和技術問題表現最好。不過,針對手術流程的問題準確度較低。整體來說,ChatGPT對病人和醫療人員有很大幫助,但還是有些限制要留意。 PubMed DOI