原始文章

這項研究探討了AI平台(如ChatGPT、Google Bard、Microsoft Bing)在生成牙齒矯正治療計畫的效果,並與經驗豐富的牙醫計畫進行比較。研究中,34位牙醫評估AI生成的計畫,結果顯示他們對專業醫師的計畫認同度明顯高於AI(p < 0.001),顯示人類專業知識更具信心。雖然AI之間無顯著差異,但Google Bard評分最低。總體來看,研究認為AI對牙齒矯正有幫助,但醫師的臨床判斷和經驗仍然至關重要。 PubMed DOI


站上相關主題文章列表

**引言** 人工智慧(AI)在醫療領域的應用日益普遍。本研究比較臨床醫師制定的骨折管理計畫與ChatGPT和Google Gemini生成的計畫。 **方法論** 本研究回顧70例孤立性骨折案例,排除複雜骨折和不明診斷。將臨床細節輸入AI,並比較其生成的計畫與實際文件計畫,重點在治療建議和後續策略。 **結果** Google Gemini僅有19%案例符合實際計畫,主要因過度概括和模糊性。ChatGPT則有34%符合,過度概括為主要差異。AI計畫與臨床計畫之間的差異具統計意義(p < 0.001)。 **結論** 這兩個AI工具在臨床管理計畫中顯示顯著不一致。雖然ChatGPT較接近專業知識,但兩者皆缺乏必要的臨床精確性,無法取代臨床醫師的角色。 PubMed DOI

這項研究評估了OpenAI的ChatGPT-4與Microsoft Copilot在提供3D列印矯正器具資訊的表現,重點在準確性、完整性和回應時間。研究分為五個階段,最終確定105個問題進行測試。結果顯示,ChatGPT-4在準確性和完整性上均優於Copilot,且兩者在評估一致性上幾乎沒有相關性。雖然回應時間無顯著差異,但ChatGPT-4在解答複雜問題上表現更佳。 PubMed DOI

這項研究探討了對話式人工智慧ChatGPT-4在解答正畸病人常見問題的有效性,並與兩位正畸醫師的回答進行比較。研究中,ChatGPT在30個問題中有61個案例排名第一,平均排名為1.69,明顯優於正畸醫師的排名(醫師A: 2.23,醫師B: 2.08)。兩位醫師之間的排名差異不大,而ChatGPT的排名與評估者共識有強正相關(Spearman係數0.69)。總體來看,研究建議ChatGPT-4在回答病人常見問題上可能更有效,尤其是在正畸領域。 PubMed DOI

這項研究發現,ChatGPT(GPT-4)在兒童牙科診斷上表現不錯,準確率有72.2%,尤其擅長找出蛀牙。不過,在建議治療方案時,準確率就掉到47.2%。所以,ChatGPT可以當作診斷的輔助工具,但在治療決策上還是不夠穩當,不能完全取代專業牙醫。 PubMed

這項研究發現,AI聊天機器人回答矯正牙科問題的準確度普遍比牙醫系學生和一般牙醫師高,但還是比不上矯正專科醫師。ChatGPT-4o的準確度最接近專科醫師,不過ChatGPT-4在回答上一致性最好。有些AI(像ChatGPT-4o、Claude 3.5 Sonnet)一致性較差,可能導致錯誤資訊傳播。AI可輔助病患教育,但仍需專業把關。 PubMed DOI

這項研究比較了 Ernie Bot、ChatGPT 和 Gemini 三款 AI 對成人牙齒矯正常見問題的回答表現。結果發現,三者在正確性、清楚度和同理心等六項指標上,大多只拿到中等分數,很少有滿分。雖然 AI 可以輔助解答,但建議還是要有專業醫師把關,未來在正確性和病患照護上還有進步空間。 PubMed DOI

這項研究發現,無論是病患還是矯正牙醫,都認為專家的回答最專業、最值得信賴。雖然 ChatGPT-4.0 有些題目表現不錯,但整體還是比不上專家;Microsoft Copilot 的表現則最弱。總結來說,AI 聊天機器人目前在矯正牙科領域,還無法完全取代專業醫師的建議。 PubMed DOI

這項研究比較三款AI聊天機器人回答All-on-Four植牙常見問題的準確性,發現MediSearch在技術問題上表現最好。雖然三者表現有差異,但都能提供病人和專業人員實用資訊,顯示AI聊天機器人在植牙臨床決策和衛教上越來越重要。 PubMed DOI

這項研究發現,GPT-4 在擬定七大牙科專科的治療計畫上,表現比 GPT-3.5 更好,尤其在複雜病例和口腔顎面外科領域更準確一致。顯示 GPT-4 有潛力協助牙科教育和臨床決策,但還是需要專家把關。 PubMed DOI

這項研究發現,ChatGPT(特別是GPT-4o)在唇顎裂問題的回答上,表現中等,內容清楚易懂,有時甚至比資淺醫師還專業。不過,AI還是缺乏臨床經驗和細緻判斷,無法完全取代資深醫師。AI適合當輔助工具,幫助病患教育和溝通,搭配專家一起用,能提升照護品質。 PubMed DOI