Performance of ChatGPT-3.5 and ChatGPT-4 on the European Board of Urology (EBU) exams: a comparative analysis.
ChatGPT-3.5 和 ChatGPT-4 在歐洲泌尿學委員會 (EBU) 考試中的表現:比較分析。
World J Urol 2024-07-26
Advancements in AI Medical Education: Assessing ChatGPT's Performance on USMLE-Style Questions Across Topics and Difficulty Levels.
AI 醫學教育的進展:評估 ChatGPT 在各主題和難度級別的 USMLE 風格問題上的表現。
Cureus 2025-01-24
Assessing the performance of ChatGPT in medical ethical decision-making: a comparative study with USMLE-based scenarios.
評估 ChatGPT 在醫學倫理決策中的表現:與 USMLE 基於情境的比較研究。
J Med Ethics 2025-01-25
Can ChatGPT Generate Acceptable Case-Based Multiple-Choice Questions for Medical School Anatomy Exams? A Pilot Study on Item Difficulty and Discrimination.
ChatGPT 能否生成適合醫學院解剖學考試的案例型選擇題?一項關於題目難度和區分度的初步研究。
Clin Anat 2025-03-25
Evaluating the value of AI-generated questions for USMLE step 1 preparation: A study using ChatGPT-3.5.
評估 AI 生成問題在 USMLE Step 1 準備中的價值:使用 ChatGPT-3.5 的研究。
Med Teach 2025-03-27
Assessing ChatGPT 4.0's Capabilities in the United Kingdom Medical Licensing Examination (UKMLA): A Robust Categorical Analysis.
ChatGPT 4.0 在英國醫學執照考試(UKMLA)中的能力評估:一項嚴謹的類別分析
Sci Rep 2025-04-15
Performance of ChatGPT-3.5 and ChatGPT-4 in Solving Questions Based on Core Concepts in Cardiovascular Physiology.
ChatGPT-3.5 與 ChatGPT-4 在解答心血管生理核心概念相關問題的表現
Cureus 2025-06-06