Can ChatGPT Generate Acceptable Case-Based Multiple-Choice Questions for Medical School Anatomy Exams? A Pilot Study on Item Difficulty and Discrimination.
ChatGPT 能否生成適合醫學院解剖學考試的案例型選擇題?一項關於題目難度和區分度的初步研究。
Clin Anat 2025-03-25
Advancements in AI Medical Education: Assessing ChatGPT's Performance on USMLE-Style Questions Across Topics and Difficulty Levels.
AI 醫學教育的進展:評估 ChatGPT 在各主題和難度級別的 USMLE 風格問題上的表現。
Cureus 2025-01-24
AI versus human-generated multiple-choice questions for medical education: a cohort study in a high-stakes examination.
醫學教育中 AI 與人類生成的多選題比較:一項高風險考試的隊列研究。
BMC Med Educ 2025-02-08
Evaluating the value of AI-generated questions for USMLE step 1 preparation: A study using ChatGPT-3.5.
評估 AI 生成問題在 USMLE Step 1 準備中的價值:使用 ChatGPT-3.5 的研究。
Med Teach 2025-03-27
AI in radiography education: Evaluating multiple-choice questions difficulty and discrimination.
放射學教育中的人工智慧:評估多選題的難度和區分度。
J Med Imaging Radiat Sci 2025-03-29
Generative AI vs. human expertise: a comparative analysis of case-based rational pharmacotherapy question generation.
生成式人工智慧與人類專業知識:基於案例的合理藥物治療問題生成的比較分析。
Eur J Clin Pharmacol 2025-04-09
這項研究評估了三個生成式人工智慧模型—ChatGPT-4o、Gemini 1.5 Advanced Pro 和 Claude 3.5 Sonnet—在創建與高血壓和糖尿病相關的藥理學問題的有效性。使用一次性提示,這些模型生成了60個問題,並由多學科小組進行可用性評估。103名醫學生在考試中回答了AI生成的問題,結果顯示AI問題的正確率與專家問題相當,且AI生成問題的準備效率顯著提升。然而,仍有19個問題被認為無法使用,顯示專家審查的重要性。結合AI效率與專家驗證的方式,可能是改善醫學教育的最佳策略。
PubMedDOI
Assessing ChatGPT 4.0's Capabilities in the United Kingdom Medical Licensing Examination (UKMLA): A Robust Categorical Analysis.
ChatGPT 4.0 在英國醫學執照考試(UKMLA)中的能力評估:一項嚴謹的類別分析
Sci Rep 2025-04-15
The utility of generative artificial intelligence Chatbot (ChatGPT) in generating teaching and learning material for anesthesiology residents.
生成式人工智慧聊天機器人(ChatGPT)在產生麻醉科住院醫師教學與學習教材上的實用性
Front Artif Intell 2025-06-05
Anatomy exam model for the circulatory and respiratory systems using GPT-4: a medical school study.
使用 GPT-4 的循環與呼吸系統解剖學考試模型:醫學院研究
Surg Radiol Anat 2025-06-10