原始文章

這項研究發現,ChatGPT 3.5在大學初階生物化學課程中產生的學習資料,學生評價兩極,有人覺得有幫助,有人還是偏好傳統教材。而ChatGPT在開放式筆記考試中表現不佳,無法及格。整體來說,ChatGPT在教學上有潛力,但目前還有不少限制,未來AI學習工具還有改進空間。 PubMed DOI


站上相關主題文章列表

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

2024年的研究探討人工智慧(AI)學習對醫學生臨床前階段考試成績的影響。研究團隊向內華達大學拉斯維加斯分校的2027班學生發放問卷,將他們分為使用AI和不使用AI的兩組。透過兩樣本t檢定比較六個器官系統考試及期末考試的成績,結果顯示兩組之間並無顯著差異。大多數AI使用者表示主要利用ChatGPT來簡化難題。研究結論認為,AI的使用對考試成績沒有明顯影響。 PubMed DOI

學生們越來越依賴人工智慧(AI)工具,如ChatGPT,來輔助醫學教育和考試準備。一項研究檢視了AI生成的多選題,這些題目模仿美國醫學執照考試(USMLE)第一階段的格式。研究發現,83%的問題事實上是準確的,常見主題包括深靜脈血栓和心肌梗塞。研究建議,分開生成內容主題和問題可以提升多樣性。總體而言,ChatGPT-3.5能有效生成相關考題,但需謹慎提示以減少偏見,對醫學生準備USMLE考試有幫助。 PubMed DOI

最近在人工智慧(AI)方面的進展,特別是大型語言模型(LLMs),正在改變醫學領域。本研究比較了四款先進的LLM聊天機器人—Claude、GPT-4、Gemini和Copilot—在生物化學課程中的表現。使用200道USMLE風格的多選題進行評估,結果顯示這些聊天機器人平均正確率為81.1%,超過學生8.3%。Claude的準確率最高,達92.5%。研究指出,這些AI模型在醫學教育中可能具備特定優勢,特別是在生物化學領域,顯示AI在醫學訓練中的潛力。 PubMed DOI

這項研究發現,ChatGPT-4.0在酵素學考試的表現優於3.5版,但兩者分數都比學生低,尤其在實驗室分析題目上差距更明顯。雖然聊天機器人有助學習,但目前還無法取代人類專業知識。 PubMed DOI

ChatGPT-3.5 在治療學考試的表現明顯不如藥學系學生,分數只有 53%,學生平均則有 82%。它在需要應用和案例分析的題目上特別吃力,只有在記憶型題目表現較好,顯示生成式 AI 在複雜醫學教育任務上還有不少限制。 PubMed DOI

ChatGPT 在醫學教育上有助於個人化學習、自動評分和語言支援,但也有資訊正確性、倫理、隱私和透明度等問題,還可能影響批判性思考。特別是在癌症教育等敏感領域,需加強規範和指引,才能安全有效運用。 PubMed DOI

研究發現,ChatGPT雖然常能正確回答初階麻醉學問題,但有時會出現重大錯誤,像是引用錯誤、混淆概念或受偏見影響。這些錯誤若發生在臨床上,可能會有風險。因此,ChatGPT的答案沒經專家審查前,不適合直接用在醫學教育。 PubMed DOI

田納西大學健康科學中心用ChatGPT設計「健康社會決定因素」課堂活動,九成以上藥學系新生覺得這種AI設計的活動很有幫助,效果跟老師自製的差不多甚至更好。不過,研究也提醒老師,AI有時會出錯,教材還是要先檢查過才行。 PubMed DOI

這項研究發現,ChatGPT-4在回答心血管生理學選擇題時,正確率(83.33%)明顯高於ChatGPT-3.5(60%),而且解釋也更清楚。不過,AI的答案還是需要專業老師把關,醫學教育用AI時要特別小心。 PubMed DOI