原始文章

這項研究探討如何利用提示工程來映射測試問題,並評估ChatGPT與人類教師的有效性。研究分析了139個來自藥物治療課程的測試問題,三位教師將這些問題對應到模組目標及藥學教育標準,並確立「正確答案」。結果顯示,ChatGPT成功映射到「正確答案」的比例為68.0%,且在20.1%的案例中至少匹配到一位人類教師的回應,總體一致性達88.1%。研究強調了提示工程在提升大學評估及課程委員會測試問題映射效率的潛力。 PubMed DOI


站上相關主題文章列表

ChatGPT是一個受歡迎的工具,可提供有條理的回應。研究評估了它在醫學教育中的表現,測試了基礎醫學和臨床醫學的MCQs。結果顯示,在基礎醫學方面得分為74%,臨床醫學方面為70%,總體得分為72%。顯示ChatGPT對醫學生和教職員有幫助。 PubMed DOI

研究比較了ChatGPT和教授出的醫學考題,發現ChatGPT速度快但稍弱於人類相關性。ChatGPT有潛力迅速產生高品質的考題。 PubMed DOI

教育上的挑戰是製作醫學院的多重選擇題耗費資源。解決方法是利用ChatGPT產生初稿,節省教職員工時間。好處包括提高效率、遵守指南。下一步是比較ChatGPT生成與專家題目,確定適合題型,並加入媒體元素。 PubMed DOI

研究評估了ChatGPT在回答多重選擇題(MCQs)並提供理由的能力。總共有78道MCQs,312個問題,整體準確率為76%。在回憶和解釋問題上表現較好,解決問題方面表現較差。77.8%的回答提供正確理由,但也出現錯誤。建議在監督下使用,以避免傳播不準確信息。 PubMed DOI

這項研究探討了使用ChatGPT來為醫學生生成以案例為基礎的多重選擇題。所創建的問題被納入醫學院考試中,顯示出合理的難度和區分度水平。研究結果表明,ChatGPT在考試開發方面具有潛力,但需要進一步研究以增強外部效度。 PubMed DOI

研究發現,ChatGPT在台灣護理師執照考試準備中有80.75%的準確率,但在不同科目表現不盡相同。它在臨床案例和複雜問題上有困難,答案和解釋也不一致。這突顯了ChatGPT在護理教育中的潛力和限制,對AI教育工具的發展有所助益。 PubMed DOI

研究發現使用ChatGPT製作醫學教育的多重選擇題有潛力,但問題有效性尚待確認。建議在考試前謹慎審查ChatGPT生成的題目,並避免盲目使用。ChatGPT可簡化測試開發,但品質仍需注意。 PubMed DOI

研究發現,在醫學院環境中,ChatGPT在回答多重選擇題時表現不錯,但若答案不正確,解釋準確性會下降。ChatGPT可作為學習輔助工具,但需謹慎使用,建議教師審查和補充解釋以確保學習效果。若有錯誤答案,學生應主動向教師求證。 PubMed DOI

在護理教育中運用人工智慧工具如ChatGPT,可提供個人化學習和互動參與。教職員需巧妙設計提示,以達教育目標並提升學習成果。有效提示對AI回應至關重要,有助於提升學生理解能力。本文探討了在學術環境中優化AI內容生成的重要性,並提供護理教育工作者運用AI的指導。精通提示設計可提升教學效果、工作效率和學生成果。 PubMed DOI

這項研究評估了不同提示技術對GPT-3.5在回答美國醫學執照考試(USMLE)第一階段考題的影響。研究分析了1000個GPT-4生成的問題和95個真實考題,結果顯示各種提示類型的準確性差異不大,直接提示成功率為61.7%,思考鏈為62.8%,修改版思考鏈為57.4%。所有p值均高於0.05,顯示無顯著差異。結論認為,思考鏈提示並未顯著提升GPT-3.5的醫學問題處理能力,顯示人工智慧工具可有效融入醫學教育中,無需複雜提示策略。 PubMed DOI