原始文章

這項研究探討個人化回饋對醫學教育學習成果的影響,特別是透過應用程式進行自我測試。德國醫學生參加隨機試驗,接受專家或ChatGPT的回饋。結果顯示,經常使用應用程式的學生在畢業考試中表現較佳,但兩種回饋的分數差異不大(ChatGPT 51.8%,專家 55.8%,p = 0.06)。研究建議需改善應用程式和回饋機制,以提升有效性,並對其他學術領域提供啟示。 PubMed DOI


站上相關主題文章列表

這項研究調查了美國醫學生使用ChatGPT的情況,涵蓋使用頻率、動機及對傳統資源的偏好。調查對象為131名醫學生,結果顯示近一半(48.9%)曾使用ChatGPT,且43.7%的人每週或每天使用,主要用於寫作和編輯等任務。值得注意的是,超過50%的非使用者表示不太可能使用這個工具。使用者對ChatGPT的偏好高於詢問教授和教科書,但低於抽認卡應用和醫學影片。研究指出,ChatGPT正成為醫學生的熱門資源,未來對醫學教育的影響可能會持續增長。 PubMed DOI

這項研究探討生成式人工智慧對醫學生創建練習考題的信心與態度影響。68名醫學生和醫師助理學生參加了工作坊,學習使用Google Bard(現稱Gemini)。調查顯示,使用AI創建考題的信心顯著提升(<i>p</i> < 0.001)。焦點小組反饋指出AI的優勢與擔憂,學生希望機構能提供更清晰的指導。雖然信心提升,但研究強調需徹底評估AI生成考題的質量與準確性。總體而言,教導學生負責任地使用AI工具是關鍵。 PubMed DOI

最近一項研究調查了207名醫學生對於像ChatGPT這類人工智慧工具的認識與態度。結果顯示,66.7%的學生對ChatGPT有了解,但對其他AI工具的認識較少。大多數學生以非正式方式使用AI,主要當作搜尋引擎,且超過一半的人對AI技術感到不夠了解。他們希望獲得更多與未來醫生角色相關的訓練,特別是在AI應用於學習、一般知識及科學寫作方面。研究也發現性別和自我評估的學習表現存在差異,為未來研究提供了新方向。 PubMed DOI

這項研究比較了AI工具(ChatGPT-4)和人類導師在牙科學生作業反饋的效果。共評估194個回答,結果顯示在某些問題上AI的表現更佳,尤其在識別錯誤和提供清晰建議方面。雖然學生對人類導師的反饋感到更舒適,但在理解錯誤和批判性思考的促進上,兩者並無顯著差異。整體來看,AI工具有潛力成為人類輔導的有效補充,能更快速提供詳細反饋。 PubMed DOI

這項研究探討了使用ChatGPT輔助的問題導向學習(PBL)對泌尿科醫學實習生的成效,並與傳統教學方法比較。實習生分為兩組,一組使用ChatGPT輔助,另一組則接受傳統教學。結果顯示,兩組的成績都有提升,但使用ChatGPT的組別在理論知識和臨床技能上表現更佳,學生們對這種AI輔助的學習方式也表示滿意。研究顯示ChatGPT能提升醫學教育的學習效果,但仍需進一步探討AI資訊的可靠性及其大規模應用的影響。 PubMed DOI

這項研究探討沙烏地阿拉伯阿爾法伊薩大學醫學生對ChatGPT等聊天型人工智慧在醫學教育中的熟悉度與使用情況。研究期間為2023年10月8日至11月22日,共收集293份問卷,女性佔67.6%,男性佔32.4%。主要發現顯示男性學生對ChatGPT的熟悉度較高,且使用Google Bard和Microsoft Bing ChatGPT的頻率也高於女性。臨床年級學生在寫作任務中使用ChatGPT的頻率高於臨床前學生。對於人工智慧的倫理影響,46.4%的學生認為合乎倫理。整體而言,醫學生對聊天型人工智慧的使用存在性別和學年上的顯著差異。 PubMed DOI

這篇論文探討卡爾頓大學健康科學本科生使用ChatGPT-3.5的經驗與看法,並比較其與傳統網路資源的可用性。研究中,27名學生參加了隨機對照試驗,透過問卷評估可用性,並從七名參與者的焦點小組中獲得質性見解。結果顯示,學生認為ChatGPT-3.5更易學習與使用,提升了生產力與創意思考能力,但也對其可靠性、準確性及學術誠信表示擔憂。研究強調在健康科學教育中整合AI需有明確政策與最佳實踐,以確保負責任的使用並提升教育成果。 PubMed DOI

這項研究探討了GPT-3.5在為放射科住院醫師生成回饋的有效性,並與人類撰寫的評論進行比較。隨著加拿大放射科課程實施能力為基礎的醫學教育,對敘述性回饋的需求增加。研究分析了28位教職員對10位住院醫師的110條評論,發現人類撰寫的回饋通常較長且具體,而GPT生成的評論則較模糊。人類評分者的準確率為80.5%,而GPT-3.5僅50%。結果顯示,GPT-3.5尚無法達到人類回饋的具體性,未來需改進算法以提升AI回饋質量。 PubMed DOI

這項研究建立了一個自訂的GPT-3.5模型,用來評估一年級物理治療學生的解剖學作業,並將其表現與專業領域的專家進行比較。結果顯示,人工智慧的評分可以減輕工作負擔,同時確保評估的一致性和高品質。這表明人工智慧有潛力提升醫學教育的效率和個性化。 PubMed DOI

進展測試醫學 (PTM) 是柏林夏里特醫學大學針對醫學生的評估,每年進行兩次,提供學生優缺點的數字反饋。為了改善具體主題的學習需求,開發了一個七步驟的方法,結合大型語言模型和統計分析。透過 ChatGPT 4.0,識別問題關鍵字並與醫學主題標題 (MeSH) 匹配,分析答案模式,建立問題與 MeSH 標題的關聯。模擬結果顯示,1,401 名參與者在14.67%到21.76%的主題中存在知識空白,並能生成涵蓋243個醫學主題的個性化反饋,幫助學生更有效學習。 PubMed DOI