Assessing the Ability of a Large Language Model to Score Free-Text Medical Student Clinical Notes: Quantitative Study.
評估大型語言模型對醫學生自由文本臨床筆記進行評分的能力:定量研究。
JMIR Med Educ 2024-08-09
Fine-Tuning Large Language Models to Enhance Programmatic Assessment in Graduate Medical Education.
微調大型語言模型以增強研究生醫學教育中的程式性評估。
J Educ Perioper Med 2024-10-02
Comparing Scoring Consistency of Large Language Models with Faculty for Formative Assessments in Medical Education.
比較大型語言模型與教師在醫學教育形成性評估中的評分一致性。
J Gen Intern Med 2024-10-14
Leveraging large language models to construct feedback from medical multiple-choice Questions.
利用大型語言模型構建醫學多選題的反饋。
Sci Rep 2024-11-13
這項研究探討如何利用大型語言模型(LLMs)生成內容為基礎的反饋,以提升Progress Test Medizin考試的反饋效果,超越單純的數字分數。研究比較了兩個受歡迎的LLM在生成相關見解上的表現,並調查醫療從業人員和教育工作者對LLM能力及其反饋實用性的看法。結果顯示兩者表現相似,其中一個付費的稍優,另一個則免費。參與者認為反饋相關,並願意未來使用LLM。研究結論指出,雖然LLM生成的反饋不完美,但仍可作為傳統數字反饋的有價值補充。
PubMedDOI
Large language models improve clinical decision making of medical students through patient simulation and structured feedback: a randomized controlled trial.
大型語言模型透過病人模擬和結構化反饋提升醫學生的臨床決策能力:一項隨機對照試驗。
BMC Med Educ 2024-11-28
Delving into the Practical Applications and Pitfalls of Large Language Models in Medical Education: Narrative Review.
探討大型語言模型於醫學教育中的實際應用與陷阱:敘述性回顧
Adv Med Educ Pract 2025-04-24