Performance of ChatGPT-3.5 and ChatGPT-4 on the European Board of Urology (EBU) exams: a comparative analysis.
ChatGPT-3.5 和 ChatGPT-4 在歐洲泌尿學委員會 (EBU) 考試中的表現:比較分析。
World J Urol 2024-07-26
Advancements in AI Medical Education: Assessing ChatGPT's Performance on USMLE-Style Questions Across Topics and Difficulty Levels.
AI 醫學教育的進展:評估 ChatGPT 在各主題和難度級別的 USMLE 風格問題上的表現。
Cureus 2025-01-24
Assessing the performance of ChatGPT in medical ethical decision-making: a comparative study with USMLE-based scenarios.
評估 ChatGPT 在醫學倫理決策中的表現:與 USMLE 基於情境的比較研究。
J Med Ethics 2025-01-25
Performance of ChatGPT-3.5 and ChatGPT-4 in the Taiwan National Pharmacist Licensing Examination: Comparative Evaluation Study.
ChatGPT-3.5 和 ChatGPT-4 在台灣國家藥師執照考試中的表現:比較評估研究。
JMIR Med Educ 2025-01-26
While GPT-3.5 is unable to pass the Physician Licensing Exam in Taiwan, GPT-4 successfully meets the criteria.
雖然 GPT-3.5 無法通過台灣的醫師執照考試,但 GPT-4 成功符合標準。
J Chin Med Assoc 2025-03-14
Performance of ChatGPT-4 on Taiwanese Traditional Chinese Medicine Licensing Examinations: Cross-Sectional Study.
ChatGPT-4 在台灣傳統中醫執照考試中的表現:橫斷面研究。
JMIR Med Educ 2025-03-19
Assessing ChatGPT 4.0's Capabilities in the United Kingdom Medical Licensing Examination (UKMLA): A Robust Categorical Analysis.
ChatGPT 4.0 在英國醫學執照考試(UKMLA)中的能力評估:一項嚴謹的類別分析
Sci Rep 2025-04-15
Performance of ChatGPT-3.5 and ChatGPT-4 in Solving Questions Based on Core Concepts in Cardiovascular Physiology.
ChatGPT-3.5 與 ChatGPT-4 在解答心血管生理核心概念相關問題的表現
Cureus 2025-06-06