The performance of artificial intelligence language models in board-style dental knowledge assessment: A preliminary study on ChatGPT.
人工智慧語言模型在牙科知識評估中的表現:ChatGPT初步研究。
J Am Dent Assoc 2023-11-02
The Performance of GPT-3.5, GPT-4, and Bard on the Japanese National Dentist Examination: A Comparison Study.
GPT-3.5、GPT-4和Bard在日本國家牙醫考試中的表現:比較研究。
Cureus 2024-01-13
Evaluating GPT-4V's performance in the Japanese national dental examination: A challenge explored.
評估 GPT-4V 在日本國家牙科考試中的表現:一項挑戰的探索。
J Dent Sci 2024-07-22
Performance of ChatGPT 4.0 on Japan's National Physical Therapist Examination: A Comprehensive Analysis of Text and Visual Question Handling.
ChatGPT 4.0 在日本國家物理治療師考試中的表現:文本和視覺問題處理的綜合分析。
Cureus 2024-09-23
Evaluating the efficacy of leading large language models in the Japanese national dental hygienist examination: A comparative analysis of ChatGPT, Bard, and Bing Chat.
評估大型語言模型在日本國家牙科衛生師考試中的效能:ChatGPT、Bard 和 Bing Chat 的比較分析。
J Dent Sci 2024-09-30
Performance of ChatGPT 3.5 and 4 on U.S. dental examinations: the INBDE, ADAT, and DAT.
ChatGPT 3.5 和 4 在美國牙科考試中的表現:INBDE、ADAT 和 DAT。
Imaging Sci Dent 2024-10-07
Evaluating Large Language Models in Dental Anesthesiology: A Comparative Analysis of ChatGPT-4, Claude 3 Opus, and Gemini 1.0 on the Japanese Dental Society of Anesthesiology Board Certification Exam.
評估大型語言模型在牙科麻醉學中的應用:ChatGPT-4、Claude 3 Opus 和 Gemini 1.0 在日本牙科麻醉學會董事認證考試中的比較分析。
Cureus 2024-10-29
本研究評估了三個大型語言模型(LLMs)—ChatGPT-4、Gemini 1.0 和 Claude 3 Opus—在回答日本麻醉學會牙科麻醉專業認證考試問題的表現。結果顯示,ChatGPT-4的正確率為51.2%,Claude 3 Opus為47.4%,而Gemini 1.0僅有30.3%。雖然前兩者在某些領域表現較佳,但目前的正確率仍不足以支持臨床應用。研究指出,需改善高品質資訊的可獲得性及提示設計,以提升LLMs在牙科麻醉的實用性。
PubMedDOI