原始文章

這項研究發現,ChatGPT 3.5和Google Gemini在回答家長兒童牙齒外傷問題時,表現差不多。Gemini的答案較可靠,ChatGPT 3.5則較容易懂,實用性兩者相近。不過,AI只能提供初步資訊,還是要諮詢專業牙醫。 PubMed DOI


站上相關主題文章列表

人工智慧,尤其是ChatGPT,因為資料增加和運算能力提升,被廣泛運用。在醫學領域,人們正研究用於臨床查詢和研究。家長可能會用ChatGPT尋求子女健康資訊,因為它方便易用。研究評估了ChatGPT對兒童口腔健康問題回答的清晰度、正確性和完整性,兒童牙科醫師發現大部分回答適當,但還有改進空間。 PubMed DOI

這項研究比較了ChatGPT和Gemini兩個AI語言模型在牙齒脫位問題上的回答準確性。研究使用了33個問題,並由四位小兒牙醫評估回答。結果顯示,Gemini的平均得分顯著高於ChatGPT(p = 0.001)。雖然ChatGPT在開放式問題和是非題上表現較好,但在選擇題上不佳。整體來看,Gemini的回答更準確(p = 0.004)。這些結果顯示兩個模型在牙科領域有潛力,但仍需進一步研究和改進。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI

這項研究評估了六款人工智慧應用程式在回答脫落牙齒緊急處理問題的表現。測試的應用程式包括不同版本的ChatGPT、Perplexity、Gemini和Copilot。結果顯示,ChatGPT 4.0的準確率最高,達95.6%,而Perplexity最低,僅67.2%。除了ChatGPT 4.0外,其他聊天機器人都不夠可靠。研究建議將國際牙科外傷學會的指導方針納入聊天機器人的資料庫,以提升準確性和可靠性。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

研究團隊開發了 AI 聊天機器人 Dental Trauma Evo,協助牙醫依國際指引處理牙科外傷。經 384 種情境測試,建議準確率達 100%,回覆完整性也幾乎全達標。這工具有助推動牙科外傷照護標準化。 PubMed DOI

這項研究比較ChatGPT-4o和Gemini Advanced在判斷牙齒外傷照片時的表現。結果顯示,ChatGPT-4o在複雜牙冠骨折方面較優,Gemini Advanced則在嚴重外傷如牙齒脫落時較好。兩者都有潛力協助牙傷評估,但遇到複雜情況還需專家把關。若能結合官方指引,將更可靠,也能幫助民眾獲得正確健康資訊。 PubMed DOI

這項研究發現,AI 聊天機器人(像是ChatGPT、Copilot等)在回答兒童下頜骨延長術常見照護問題時,雖然Copilot表現最好,但整體來說,答案不夠可靠、資料來源不足,而且用詞太艱深,病人和家屬很難看懂,暫時還不適合當作醫療諮詢的主要工具。 PubMed DOI

這項研究比較了ChatGPT-3.5、Gemini和Copilot三款AI聊天機器人在回答植牙常見問題時的表現。結果發現,三者正確性差不多,但Gemini的答案較完整,Copilot的一致性最好。不過,三款AI的正確率都不高,建議不能直接用來做牙科決策,還是要依靠專業醫師判斷。 PubMed DOI