Fruits of the Professional Educator Appreciation and Recognition (PEAR) Awards: Learning what Students Value in Their Medical Educators.
專業教育者表揚與肯定(PEAR)獎項的成果:了解醫學生重視其醫學教育者的哪些特質
Med Sci Educ 2025-05-12
Can ChatGPT-4o Really Pass Medical Science Exams? A Pragmatic Analysis Using Novel Questions.
ChatGPT-4o 真的能通過醫學科學考試嗎?以新穎試題進行的實用性分析
Med Sci Educ 2025-05-12
ChatGPT-4o 在英美醫師執照考試表現亮眼,即使遇到全新題目也能高分,證明不是只靠背題庫。不過,遇到圖片型選項時表現就變差。這說明單靠出新題或圖片題,無法完全防堵 AI 作弊,還是得有嚴格監考和安全措施,才能確保考試公平。
相關文章PubMedDOI推理
Large language models for intelligent RDF knowledge graph construction: results from medical ontology mapping.
用於智慧型 RDF 知識圖譜建構的大型語言模型:醫學本體映射的研究結果
Front Artif Intell 2025-05-12
Advancing emergency upper extremity care: A pilot study of ChatGPT's potential role in diagnosing and managing hand and wrist trauma.
提升急診上肢照護:ChatGPT 在診斷與處理手部及腕部創傷潛在角色的初步研究
J Hand Microsurg 2025-05-12
A clinician-based comparative study of large language models in answering medical questions: the case of asthma.
以臨床醫師為基礎之大型語言模型在醫學問題回答上的比較研究:以氣喘為例
Front Pediatr 2025-05-12
Chinese generative AI models (DeepSeek and Qwen) rival ChatGPT-4 in ophthalmology queries with excellent performance in Arabic and English.
中文生成式 AI 模型(DeepSeek 與 Qwen)在眼科問題中,以阿拉伯語和英語展現出色表現,媲美 ChatGPT-4。
Narra J 2025-05-12
Evaluating the reference accuracy of large language models in radiology: a comparative study across subspecialties.
放射科大型語言模型參考文獻準確性的評估:跨次專科的比較研究
Diagn Interv Radiol 2025-05-12
這項研究發現,Claude 3.5 Sonnet 在產生放射科參考文獻時最準確,正確率高達 80.8%,捏造比例僅 3.1%,明顯勝過其他模型。相較之下,ChatGPT 和 Google Gemini 1.5 Pro 的正確率較低,捏造比例甚至高達 60.6%。不同放射科次專科的正確率也有差異。整體來說,Claude 3.5 Sonnet 學術可靠度高,其他模型則有誤導風險,引用功能還需加強。
相關文章PubMedDOI推理
Empowering Generalist Material Intelligence with Large Language Models.
以大型語言模型賦能通用材料智能
Adv Mater 2025-05-12