Performance of ChatGPT as an AI-assisted decision support tool in medicine: a proof-of-concept study for interpreting symptoms and management of common cardiac conditions (AMSTELHEART-2).
ChatGPT 在醫學中作為 AI 輔助決策支援工具的表現:解讀常見心臟疾病症狀和管理的概念驗證研究(AMSTELHEART-2)。
Acta Cardiol 2024-02-13
Evaluation of responses to cardiac imaging questions by the artificial intelligence large language model ChatGPT.
ChatGPT對心臟影像問題回答的評估。
Clin Imaging 2024-05-31
The scientific knowledge of three large language models in cardiology: multiple-choice questions examination-based performance.
心臟病學中三個大型語言模型的科學知識:基於多重選擇問題考試表現。
Ann Med Surg (Lond) 2024-06-07
In-depth analysis of ChatGPT's performance based on specific signaling words and phrases in the question stem of 2377 USMLE step 1 style questions.
對 2377 道 USMLE Step 1 風格問題中特定提示詞和短語的 ChatGPT 表現進行深入分析
Sci Rep 2024-06-12
Advancements in AI Medical Education: Assessing ChatGPT's Performance on USMLE-Style Questions Across Topics and Difficulty Levels.
AI 醫學教育的進展:評估 ChatGPT 在各主題和難度級別的 USMLE 風格問題上的表現。
Cureus 2025-01-24
Artificial intelligence in healthcare education: evaluating the accuracy of ChatGPT, Copilot, and Google Gemini in cardiovascular pharmacology.
醫療教育中的人工智慧:評估 ChatGPT、Copilot 和 Google Gemini 在心血管藥理學中的準確性。
Front Med (Lausanne) 2025-03-06
這項研究分析了三種生成式人工智慧工具—ChatGPT-4、Copilot 和 Google Gemini—在心血管藥理學問題上的表現。研究使用了45道多選題和30道短答題,並由專家評估AI生成的答案準確性。結果顯示,這三種AI在簡單和中等難度的多選題上表現良好,但在高難度題目上表現不佳,特別是Gemini。ChatGPT-4在所有題型中表現最佳,Copilot次之,而Gemini則需改進。這些結果顯示AI在醫學教育中的潛力與挑戰。
PubMedDOI