原始文章

這項研究評估了兩款人工智慧應用程式,ChatGPT-4 和 Copilot,對缺牙治療的回答準確性與品質。研究者從 Quora 收集了十五個問題,並請兩位專家醫師評估這些回答。結果顯示,ChatGPT-4 的準確性得分為 3.93,稍高於 Copilot 的 3.83;在品質方面,ChatGPT-4 的 GQS 得分為 3.9,也優於 Copilot 的 3.83。研究結論指出,這兩款 AI 聊天機器人對缺牙治療的回答具高度準確性,顯示其在牙科護理中的潛力。 PubMed DOI


站上相關主題文章列表

研究發現,ChatGPT在口腔外科問題回答方面表現優異,比Microsoft Bing和Google Bard更準確、完整、清楚。這顯示ChatGPT等自然語言處理平台在口腔外科領域有改善資訊檢索和溝通的潛力,對醫學和外科領域有價值。 PubMed DOI

這研究指出人工智慧(AI)在醫療保健領域的重要性,特別是大型語言模型(LLMs)在牙科護理中的應用。比較了嵌入式GPT模型和ChatGPT-3.5 turbo在應對患者問題和協助牙科決策的效果。結果顯示,嵌入式GPT模型在回答問題的準確性和清晰度方面優於ChatGPT,兩者在相關性和知識更新方面同樣有效。這研究顯示,嵌入GPT模型有助於提升牙科護理品質,AI在醫療領域前景看好。 PubMed DOI

對於ChatGPT-3.5、ChatGPT-4、Gemini和Copilot在正畸透明矯正器的回應評估,發現幾個重點: 1. **準確性**:ChatGPT-4表現最佳,平均分數4.5,Copilot次之(4.35),其他模型差異不大。 2. **可靠性**:Copilot在可靠性上優於其他模型,Gemini也高於ChatGPT-3.5。 3. **品質**:Copilot提供的資訊最全面可信。 4. **可讀性**:所有模型的可讀性較低,Gemini表現較佳,FRES達54.12。 總體來看,這些模型在準確性和可靠性上表現良好,但可讀性仍需改善,以更好地服務病人。 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ChatGPT-3.5 和 ChatGPT-4,對牙齦和根管健康問題的回答效果。共提出33個問題,包含17個常識性和16個專家級問題,並以中英文呈現。三位專家對回答進行五分制評分。結果顯示,兩者在英文表現較佳,ChatGPT-4的平均得分為4.45,優於ChatGPT-3.5的4.03。常識性問題的評分普遍較高。研究強調了ChatGPT-4的優越性,並指出需進一步評估LLMs以解決其在不同語言環境中的局限性,避免口腔健康資訊誤解。 PubMed DOI

這項研究探討了ChatGPT 3.5在回答牙科問題的準確性和完整性。十位專家提出30個問題,並用李克特量表評估ChatGPT的回答。結果顯示,雖然ChatGPT的準確性(中位數5.50)和完整性(中位數2.00)表現不錯,但仍有改進空間。經過重新評估後,其表現顯著提升,顯示機器學習的潛力。不過,研究也指出仍有不準確之處,特別是參考資料,強調人類判斷在臨床決策中的重要性,以及基於證據的醫療實踐的必要性。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI

最近,OpenAI的ChatGPT在醫療和教育領域的應用引起關注。一項研究評估了ChatGPT在牙科考試中的表現,發現其在知識性問題上達到80%的準確率,尤其是ChatGPT 4在牙科入學考試中表現優異,知識性問題準確率高達94%。雖然在數學分析方面表現不佳,但整體來看,ChatGPT有潛力提升牙科教育和實踐,特別是在特定領域的進一步改進上。 PubMed DOI

本研究評估九種聊天機器人在回答特殊需求牙科問題的準確性與一致性。測試結果顯示,這些機器人的平均準確率為55%,其中是非題的準確率較高(67%),而診斷問題則較低(37%)。不同機器人之間的準確性無顯著差異,但所有機器人的可靠性均可接受,Claude-instant的可靠性最高(0.93)。雖然目前臨床相關性尚未完全確立,但這些工具在特殊需求牙科領域未來可能具潛在應用價值。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在解答牙周病學問題的可靠性,包括ChatGPT 4.0、Google Gemini、Google Gemini Advanced和Microsoft Copilot。研究提出十個問題,並由兩位牙周病專家根據全面性、準確性、清晰度和相關性進行評分。結果顯示,ChatGPT 4.0表現最佳,而Google Gemini得分最低。雖然LLMs在臨床實踐中有潛力,但不應取代專業牙醫,因為不準確的資訊可能影響病人護理。總之,ChatGPT 4.0優於其他模型,但仍需注意其局限性。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT 3.5、ChatGPT 4.0和Google Gemini—在創傷性牙齒損傷(TDIs)方面的可讀性、質量和準確性。分析59個問題後發現,所有機器人的回應都難以閱讀,需具備大學程度的能力。ChatGPT 3.5的質量和可理解性最低,而ChatGPT 4.0和Google Gemini表現較佳,均獲GQS分數5。儘管ChatGPT 3.5使用廣泛,但提供的資訊有誤導性,研究強調,這些聊天機器人無法取代牙醫在複雜案例中的專業角色。 PubMed DOI