原始文章

這項研究探討了ChatGPT 3.5在回答牙科問題的準確性和完整性。十位專家提出30個問題,並用李克特量表評估ChatGPT的回答。結果顯示,雖然ChatGPT的準確性(中位數5.50)和完整性(中位數2.00)表現不錯,但仍有改進空間。經過重新評估後,其表現顯著提升,顯示機器學習的潛力。不過,研究也指出仍有不準確之處,特別是參考資料,強調人類判斷在臨床決策中的重要性,以及基於證據的醫療實踐的必要性。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在牙科知識評估中表現,ChatGPT3.5比ChatGPT4更準確。建議牙科學生將ChatGPT當作輔助學習工具,而非主要來源,以免誤導。 PubMed DOI

研究發現ChatGPT在回答根管治療問題上表現一致但不夠準確,尤其對簡單問題。雖然還無法取代牙醫,但透過深度學習提升表現或許有潛力。持續評估是必要的,以確保在臨床應用上的可靠性。 PubMed DOI

ChatGPT是醫學生的好幫手,但回答可能不完全正確,需小心。研究發現,ChatGPT3.5和ChatGPT4在牙周病學問題上的正確率分別為58%和74%。雖然ChatGPT4表現較佳,仍可能有誤差。使用者應該謹慎,需另外驗證ChatGPT提供的資訊。 PubMed DOI

研究比較了ChatGPT 3.5和4.0在回答牙科執照考試問題時的表現,發現4.0版本更準確,尤其對美國和英國考試問題回答得更好。這顯示GenAI在牙科領域有潛力,但仍需進一步改進,且應視情況而定。在牙科領域應用GenAI可能會影響牙醫與患者的溝通和專業培訓。 PubMed DOI

研究評估了ChatGPT在回答有關可拆卸式牙科假牙(RDPs)和固定式牙科假牙(FDPs)的問題時的表現。30個問題,每個問題有30個答案,專家評分後發現可靠性有限。結論指出ChatGPT在回答RDPs和FDPs問題上能力有限,不能取代牙醫,專業人士應謹慎對待其限制。 PubMed DOI

人工智慧技術如ChatGPT和Google Bard(現Gemini)可幫助老師出多選題,像是有關牙齲的題目。研究指出,這些模型出的問題相關性差不多,但Bard的問題比較有挑戰性。ChatGPT容易出現格式錯誤,Bard則用專業術語。兩者都有效,特別是在知識和理解方面。老師可以利用語言模型省時,專心教學,但要確保問題符合教學目標。 PubMed DOI

這項研究分析了三個大型語言模型(LLMs)—ChatGPT(4和3.5版)及Google Gemini—在回答美國牙周病學會的考試問題時的準確性,並與人類研究生的表現進行比較。結果顯示,ChatGPT-4的準確率達79.57%,表現最佳;Google Gemini的準確率介於70.65%到75.73%之間,優於ChatGPT-3.5,但仍低於三年級住院醫師。ChatGPT-3.5的表現最差,準確率在59.27%到69.83%之間。研究指出LLMs在牙周病學教育上的潛力,但也需進一步研究以克服其限制。 PubMed DOI

這項研究評估了ChatGPT(3.5和4版本)在牙科診斷中的有效性,特別是針對複雜病患案例的表現。結果顯示,ChatGPT 3.5在自身診斷的準確率為40%,而參考文獻時為70%。相比之下,ChatGPT 4的表現更佳,自身診斷準確率達62%,參考文獻時則為80%。這些結果顯示,ChatGPT在牙科診所作為診斷輔助工具具有顯著潛力,能有效處理複雜案例。 PubMed DOI

這項研究評估了ChatGPT在正畸領域的資訊可靠性,涵蓋透明矯正器、舌側矯正、美觀牙套和顳顎關節障礙。結果顯示,患者對資訊的評價普遍較高,尤其在透明矯正器和顳顎關節障礙方面,患者的DISCERN分數明顯高於學生和正畸醫師。整體而言,ChatGPT在患者教育上展現潛力,但仍需進一步改進以提升其可靠性和相關性。 PubMed DOI

這項研究評估了ChatGPT-4在三個正畸主題上的準確性和資訊品質,包括阻生犬齒、早期正畸治療和顎面外科。五位經驗豐富的正畸醫師使用李克特量表評估20個常見問題的回答。結果顯示,ChatGPT-4在各主題上提供的資訊品質普遍良好,但醫師之間的評分一致性較低,顯示評估存在變異性。雖然ChatGPT-4能提供有用資訊,但在解讀時仍需謹慎,這些資訊不應取代專業建議。 PubMed DOI