原始文章

這項研究評估了四款AI聊天機器人(ChatGPT 3.5、ChatGPT 4.0、Bard和Bing)在牙髓及根尖周圍疾病診斷和治療建議的準確性。研究創建了十一個案例,結果顯示Bing和ChatGPT 4.0的診斷準確率最高,分別為86.4%和85.3%。在治療建議方面,ChatGPT 4.0和Bing表現相似,均超過90%。整體一致性率達98.29%,但仍需牙科專業人員謹慎解讀這些AI的回應,因為存在不一致性。 PubMed DOI


站上相關主題文章列表

研究比較了GPT-3.5、Google Bard和Bing對根管治療問題的回答。專業醫師提問三次,由專家評分。結果顯示GPT-3.5在高閾值下比Google Bard和Bing更準確。三者皆可靠,但GPT-3.5提供較可信的根管治療資訊。 PubMed DOI

研究比較了不同聊天機器人在口腔顎面外科問題上的表現,結果顯示它們的準確性普遍不高,GPT-4在開放式問題上表現較好。這表明聊天機器人在臨床決策中可能不夠可靠。 PubMed DOI

研究比較了牙科學生和人工智慧模型ChatGPT 4在根管治療診斷上的準確性。結果顯示ChatGPT優於學生,顯示人工智慧在牙科教育中的潛力。然而,需謹慎平衡人工智慧與人類專業知識,避免過度依賴,保持批判思考。未來研究需處理ChatGPT整合到牙科教育和實務中的道德及法律問題。 PubMed DOI

這項研究比較了ChatGPT-3.5和ChatGPT-4在口腔及顏面疾病鑑別診斷的表現,並與牙科專業人士的結果進行對照。研究中呈現了37個病變案例,結果顯示ChatGPT-4的準確率為80.18%,高於ChatGPT-3.5的64.86%,但仍低於專家的86.64%。兩者在診斷一致性方面表現中等,且受案例描述質量影響。總體而言,ChatGPT-4在某些情況下能達到專家水準,但作為臨床工具的有效性仍需依賴精確的案例資料。 PubMed DOI

本研究評估九種聊天機器人在回答特殊需求牙科問題的準確性與一致性。測試結果顯示,這些機器人的平均準確率為55%,其中是非題的準確率較高(67%),而診斷問題則較低(37%)。不同機器人之間的準確性無顯著差異,但所有機器人的可靠性均可接受,Claude-instant的可靠性最高(0.93)。雖然目前臨床相關性尚未完全確立,但這些工具在特殊需求牙科領域未來可能具潛在應用價值。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI

這項研究探討了不同AI聊天機器人對再生性根管治療的回應準確性。研究人員根據美國根管治療學會的指導方針,設計了23個問題,並向三個AI平台詢問,收集了1,380個回應。結果顯示,帶有PDF插件的ChatGPT-4的正確率最高,達98.1%,而Gemini最低,僅48%。雖然其他平台有潛力,但在臨床應用上仍需改進。研究建議未來開發專為根管治療設計的AI工具。 PubMed DOI

這項研究評估了四款人工智慧聊天機器人—ChatGPT-4o、MedGebra GPT4o、Meta Llama 3 和 Gemini Advanced,在回答牙髓學的多選題表現。從牙髓學教科書中選取100道題目,進行了兩輪測試。 結果顯示,ChatGPT-4o在兩輪測試中表現最穩定,MedGebra GPT4o在第一輪達到93%的最高準確率,而ChatGPT-4o在第二輪表現最佳(90%)。Meta Llama 3的表現較弱,正確率分別為73%和75%。總體來看,ChatGPT-4o和MedGebra GPT4o在此領域表現優異,但Meta Llama 3和Gemini Advanced仍需改進。 PubMed DOI

這項研究評估了五款流行的AI聊天機器人在回答牙科專科住院醫師考試中的修復牙科問題的效果。共測試126個問題,結果顯示Copilot的準確率最高(73%),其次是Gemini(63.5%)和ChatGPT-3.5(61.1%)。雖然AI模型可作為教育工具,但在修復牙科的可靠性上仍有待加強,尤其在可拆卸局部假牙的準確率最低(50.8%)。未來的技術改進有望提升其在牙科教育中的應用效果。 PubMed DOI

這項研究評估了六款人工智慧聊天機器人在牙科修復問題上的表現,包括ChatGPT-3.5、ChatGPT-4、ChatGPT-4o、Chatsonic、Copilot和Gemini Advanced。結果顯示,ChatGPT-4、ChatGPT-4o、Chatsonic和Copilot的可靠性為「良好」,而ChatGPT-3.5和Gemini Advanced則為「尚可」。在病人相關問題中,Chatsonic表現最佳;在牙科問題中,ChatGPT-4o最突出。整體來看,這些AI在準確性和可讀性上各有優劣,顯示出在牙科領域的潛力。 PubMed DOI