原始文章

這項研究發現,無論是病患還是矯正牙醫,都認為專家的回答最專業、最值得信賴。雖然 ChatGPT-4.0 有些題目表現不錯,但整體還是比不上專家;Microsoft Copilot 的表現則最弱。總結來說,AI 聊天機器人目前在矯正牙科領域,還無法完全取代專業醫師的建議。 PubMed DOI


站上相關主題文章列表

對於ChatGPT-3.5、ChatGPT-4、Gemini和Copilot在正畸透明矯正器的回應評估,發現幾個重點: 1. **準確性**:ChatGPT-4表現最佳,平均分數4.5,Copilot次之(4.35),其他模型差異不大。 2. **可靠性**:Copilot在可靠性上優於其他模型,Gemini也高於ChatGPT-3.5。 3. **品質**:Copilot提供的資訊最全面可信。 4. **可讀性**:所有模型的可讀性較低,Gemini表現較佳,FRES達54.12。 總體來看,這些模型在準確性和可靠性上表現良好,但可讀性仍需改善,以更好地服務病人。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4與Microsoft Copilot在提供3D列印矯正器具資訊的表現,重點在準確性、完整性和回應時間。研究分為五個階段,最終確定105個問題進行測試。結果顯示,ChatGPT-4在準確性和完整性上均優於Copilot,且兩者在評估一致性上幾乎沒有相關性。雖然回應時間無顯著差異,但ChatGPT-4在解答複雜問題上表現更佳。 PubMed DOI

這項研究探討了對話式人工智慧ChatGPT-4在解答正畸病人常見問題的有效性,並與兩位正畸醫師的回答進行比較。研究中,ChatGPT在30個問題中有61個案例排名第一,平均排名為1.69,明顯優於正畸醫師的排名(醫師A: 2.23,醫師B: 2.08)。兩位醫師之間的排名差異不大,而ChatGPT的排名與評估者共識有強正相關(Spearman係數0.69)。總體來看,研究建議ChatGPT-4在回答病人常見問題上可能更有效,尤其是在正畸領域。 PubMed DOI

這項研究發現,AI聊天機器人回答矯正牙科問題的準確度普遍比牙醫系學生和一般牙醫師高,但還是比不上矯正專科醫師。ChatGPT-4o的準確度最接近專科醫師,不過ChatGPT-4在回答上一致性最好。有些AI(像ChatGPT-4o、Claude 3.5 Sonnet)一致性較差,可能導致錯誤資訊傳播。AI可輔助病患教育,但仍需專業把關。 PubMed DOI

這項研究比較了 Ernie Bot、ChatGPT 和 Gemini 三款 AI 對成人牙齒矯正常見問題的回答表現。結果發現,三者在正確性、清楚度和同理心等六項指標上,大多只拿到中等分數,很少有滿分。雖然 AI 可以輔助解答,但建議還是要有專業醫師把關,未來在正確性和病患照護上還有進步空間。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI

這項研究發現,ChatGPT-4.0在ITI植牙認證考試的表現已經跟合格牙醫師差不多,明顯比ChatGPT-3.5好。雖然AI有潛力成為牙科專業的輔助工具,但還需要進一步研究,尤其是針對能看懂影像和影片的AI模型。 PubMed DOI