原始文章

這項研究發現,ChatGPT 3.5在大學初階生物化學課程中產生的學習資料,學生評價兩極,有人覺得有幫助,有人還是偏好傳統教材。而ChatGPT在開放式筆記考試中表現不佳,無法及格。整體來說,ChatGPT在教學上有潛力,但目前還有不少限制,未來AI學習工具還有改進空間。 PubMed DOI


站上相關主題文章列表

最近推出的對話型人工智慧「ChatGPT」引起了許多興趣,但也引發了對其潛在濫用的擔憂。一項研究評估了ChatGPT在醫學生理學考試中的表現,發現它明顯優於學生。這引起了對於促進抄襲和作弊的擔憂。學者們需要設計真正能評估學生技能並防止人工智慧輔助作弊的評估方式。 PubMed DOI

這項研究比較了AI聊天機器人(如ChatGPT-4、Bing和Bard)與醫學研究生在臨床化學多選題的表現。結果顯示,ChatGPT-4的平均得分為0.90,超過學生的0.68,其他AI的得分分別為0.77、0.73和0.67。研究指出,AI在記憶和理解的表現較佳,但在應用和分析上則較弱。雖然ChatGPT-4表現優秀,但也引發了對學術誠信及多選題使用的擔憂,值得重新思考其在高等教育中的適用性。 PubMed DOI

這篇文章探討了一項實驗,對比了ChatGPT-4和ChatGPT-3.5在SAT、BMAT和IMSAT等入學考試的表現。結果顯示,ChatGPT-4的表現明顯優於前一版本,SAT考試得分進入前10%,並且能夠取得進入頂尖義大利醫學院的分數。研究還分析了錯誤答案,找出了ChatGPT-4的三種邏輯和計算錯誤,突顯了其弱點,並提出了在教育中有效運用AI的建議,儘管仍有一些限制。 PubMed DOI

隨著人工智慧(AI)快速進步,傳統的教學和評估方法面臨挑戰,像是書面報告和海報的有效性下降。為了解決這個問題,教育者需設計創新的作業,讓學生展示理解和批判性思考能力,並促進道德使用AI。 針對大三醫學生,提出的作業是利用ChatGPT生成報告,並對其進行批判性分析,最終結合自身研究與AI內容完成報告。這樣的方式能讓學生了解AI工具的能力與限制。 實施中提供清晰指導和持續支持,讓學生認識AI在學術工作中的價值,並促進對新技術的開放態度。接下來的步驟是將這些評估策略擴展到醫學院課程中,以適應不斷變化的教育環境。 PubMed DOI

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

最近在人工智慧(AI)方面的進展,特別是大型語言模型(LLMs),正在改變醫學領域。本研究比較了四款先進的LLM聊天機器人—Claude、GPT-4、Gemini和Copilot—在生物化學課程中的表現。使用200道USMLE風格的多選題進行評估,結果顯示這些聊天機器人平均正確率為81.1%,超過學生8.3%。Claude的準確率最高,達92.5%。研究指出,這些AI模型在醫學教育中可能具備特定優勢,特別是在生物化學領域,顯示AI在醫學訓練中的潛力。 PubMed DOI

這項研究發現,ChatGPT-4.0在酵素學考試的表現優於3.5版,但兩者分數都比學生低,尤其在實驗室分析題目上差距更明顯。雖然聊天機器人有助學習,但目前還無法取代人類專業知識。 PubMed DOI

ChatGPT-3.5 在治療學考試的表現明顯不如藥學系學生,分數只有 53%,學生平均則有 82%。它在需要應用和案例分析的題目上特別吃力,只有在記憶型題目表現較好,顯示生成式 AI 在複雜醫學教育任務上還有不少限制。 PubMed DOI

研究發現,ChatGPT雖然常能正確回答初階麻醉學問題,但有時會出現重大錯誤,像是引用錯誤、混淆概念或受偏見影響。這些錯誤若發生在臨床上,可能會有風險。因此,ChatGPT的答案沒經專家審查前,不適合直接用在醫學教育。 PubMed DOI

田納西大學健康科學中心用ChatGPT設計「健康社會決定因素」課堂活動,九成以上藥學系新生覺得這種AI設計的活動很有幫助,效果跟老師自製的差不多甚至更好。不過,研究也提醒老師,AI有時會出錯,教材還是要先檢查過才行。 PubMed DOI