原始文章

研究團隊開發了 AI 聊天機器人 Dental Trauma Evo,協助牙醫依國際指引處理牙科外傷。經 384 種情境測試,建議準確率達 100%,回覆完整性也幾乎全達標。這工具有助推動牙科外傷照護標準化。 PubMed DOI


站上相關主題文章列表

這項研究比較了ChatGPT和Gemini兩個AI語言模型在牙齒脫位問題上的回答準確性。研究使用了33個問題,並由四位小兒牙醫評估回答。結果顯示,Gemini的平均得分顯著高於ChatGPT(p = 0.001)。雖然ChatGPT在開放式問題和是非題上表現較好,但在選擇題上不佳。整體來看,Gemini的回答更準確(p = 0.004)。這些結果顯示兩個模型在牙科領域有潛力,但仍需進一步研究和改進。 PubMed DOI

生成式人工智慧(AI)透過聊天機器人增強了人與人之間的連結。本研究評估了三個聊天機器人(ChatGPT、Bard和Perplexity)在解答2008至2023年西班牙MIR考試的骨科手術和創傷學問題上的表現。結果顯示,ChatGPT的正確率最高(72.81%),Bard在可讀性和全面性上表現最佳。雖然這些機器人展現了潛力,但仍需謹慎使用,因為它們可能出現錯誤,人類專業知識仍然更為重要。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在提供創傷性牙齒損傷資訊上的表現,針對40個問題進行分析。主要發現包括:ChatGPT 3.5的原創回應較多,且可讀性稍好(FRES得分39.732),而4.0在定義和診斷的質量上表現較佳。雖然兩者在可讀性和可靠性上有挑戰,但仍提供高質量資訊,建議作為牙科教育的輔助資源。 PubMed DOI

這項研究評估了六款人工智慧應用程式在回答脫落牙齒緊急處理問題的表現。測試的應用程式包括不同版本的ChatGPT、Perplexity、Gemini和Copilot。結果顯示,ChatGPT 4.0的準確率最高,達95.6%,而Perplexity最低,僅67.2%。除了ChatGPT 4.0外,其他聊天機器人都不夠可靠。研究建議將國際牙科外傷學會的指導方針納入聊天機器人的資料庫,以提升準確性和可靠性。 PubMed DOI

這項研究評估了五種大型語言模型(LLMs)在回答緊急牙科創傷問題的可靠性,依據國際牙科創傷學會的指導方針進行。研究結果顯示,ChatGPT 3.5的正確回答率最高(76.7%),其次是Copilot Pro(73.3%)和Copilot Free(70%)。雖然整體成功率差異不大,但Copilot和Gemini經常提供不準確的解釋,且缺乏可靠的參考資料。因此,雖然LLMs在牙科教育上有潛力,但在實踐中需謹慎使用。 PubMed DOI

這項研究發現,ChatGPT 3.5和Google Gemini在回答家長兒童牙齒外傷問題時,表現差不多。Gemini的答案較可靠,ChatGPT 3.5則較容易懂,實用性兩者相近。不過,AI只能提供初步資訊,還是要諮詢專業牙醫。 PubMed DOI

這項研究比較四款AI聊天機器人回答牙科相關問題的表現,發現Dental GPT最準確,DeepSeek-R1最容易閱讀,但整體在品質和易懂度上差異不大。研究提醒,AI在醫療領域應謹慎使用,避免錯誤資訊影響病人。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI

這項研究比較ChatGPT-4o和Gemini Advanced在判斷牙齒外傷照片時的表現。結果顯示,ChatGPT-4o在複雜牙冠骨折方面較優,Gemini Advanced則在嚴重外傷如牙齒脫落時較好。兩者都有潛力協助牙傷評估,但遇到複雜情況還需專家把關。若能結合官方指引,將更可靠,也能幫助民眾獲得正確健康資訊。 PubMed DOI

這項研究發現,ChatGPT-4.0在ITI植牙認證考試的表現已經跟合格牙醫師差不多,明顯比ChatGPT-3.5好。雖然AI有潛力成為牙科專業的輔助工具,但還需要進一步研究,尤其是針對能看懂影像和影片的AI模型。 PubMed DOI