原始文章

這項研究評估了六款人工智慧應用程式在回答脫落牙齒緊急處理問題的表現。測試的應用程式包括不同版本的ChatGPT、Perplexity、Gemini和Copilot。結果顯示,ChatGPT 4.0的準確率最高,達95.6%,而Perplexity最低,僅67.2%。除了ChatGPT 4.0外,其他聊天機器人都不夠可靠。研究建議將國際牙科外傷學會的指導方針納入聊天機器人的資料庫,以提升準確性和可靠性。 PubMed DOI


站上相關主題文章列表

這項研究評估了四款AI聊天機器人(Bing、ChatGPT 3.5、Google Gemini和Claude AI)在回答牙齒創傷相關問題的表現。研究團隊最初設計了30個問題,經專家精煉後選出20個,並向每個聊天機器人提出三次,共收集240個回應。使用5分制進行評分,結果顯示Claude AI在有效性和可靠性上表現最佳,而Bing的可靠性最低。研究強調了制定指導方針以確保AI提供準確醫療資訊的重要性。 PubMed DOI

這項研究比較了ChatGPT和Gemini兩個AI語言模型在牙齒脫位問題上的回答準確性。研究使用了33個問題,並由四位小兒牙醫評估回答。結果顯示,Gemini的平均得分顯著高於ChatGPT(p = 0.001)。雖然ChatGPT在開放式問題和是非題上表現較好,但在選擇題上不佳。整體來看,Gemini的回答更準確(p = 0.004)。這些結果顯示兩個模型在牙科領域有潛力,但仍需進一步研究和改進。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI

顏面外科創傷在急診科常見,對未受過專業訓練的醫師來說是一大挑戰,可能導致轉診增加及會診壓力。近期研究評估了ChatGPT在診斷和管理顏面外科創傷的有效性,並與整形外科住院醫師的回應進行比較。結果顯示,ChatGPT在診斷準確性上表現優於住院醫師,但在管理建議方面則較弱。總體而言,ChatGPT在急診環境中可作為診斷輔助工具,但在治療計畫上仍需改進。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人—ChatGPT-4o、MedGebra GPT4o、Meta Llama 3 和 Gemini Advanced,在回答牙髓學的多選題表現。從牙髓學教科書中選取100道題目,進行了兩輪測試。 結果顯示,ChatGPT-4o在兩輪測試中表現最穩定,MedGebra GPT4o在第一輪達到93%的最高準確率,而ChatGPT-4o在第二輪表現最佳(90%)。Meta Llama 3的表現較弱,正確率分別為73%和75%。總體來看,ChatGPT-4o和MedGebra GPT4o在此領域表現優異,但Meta Llama 3和Gemini Advanced仍需改進。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0在提供創傷性牙齒損傷資訊上的表現,針對40個問題進行分析。主要發現包括:ChatGPT 3.5的原創回應較多,且可讀性稍好(FRES得分39.732),而4.0在定義和診斷的質量上表現較佳。雖然兩者在可讀性和可靠性上有挑戰,但仍提供高質量資訊,建議作為牙科教育的輔助資源。 PubMed DOI

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 PubMed DOI

這項研究評估了五種大型語言模型(LLMs)在回答緊急牙科創傷問題的可靠性,依據國際牙科創傷學會的指導方針進行。研究結果顯示,ChatGPT 3.5的正確回答率最高(76.7%),其次是Copilot Pro(73.3%)和Copilot Free(70%)。雖然整體成功率差異不大,但Copilot和Gemini經常提供不準確的解釋,且缺乏可靠的參考資料。因此,雖然LLMs在牙科教育上有潛力,但在實踐中需謹慎使用。 PubMed DOI

這項研究比較三款AI聊天機器人回答牙科假牙問題的表現,發現Google Gemini的答案最清楚易懂,ChatGPT則較複雜難讀。整體來說,AI可以幫忙解答病患疑問,但回答內容還有進步空間,未來才能更有效用於病患衛教。 PubMed DOI