Perception, performance, and detectability of conversational artificial intelligence across 32 university courses.
32所大學課程中對話人工智慧的感知、表現和可檢測性。
Sci Rep 2023-11-21
Comparison of the Performance of GPT-3.5 and GPT-4 With That of Medical Students on the Written German Medical Licensing Examination: Observational Study.
GPT-3.5和GPT-4在德國醫學筆試考試上表現與醫學生比較的觀察性研究。
JMIR Med Educ 2024-02-25
A real-world test of artificial intelligence infiltration of a university examinations system: A "Turing Test" case study.
人工智慧滲透大學考試系統的現實世界測試:一個「圖靈測試」案例研究。
PLoS One 2024-06-26
Human versus Artificial Intelligence: ChatGPT-4 Outperforming Bing, Bard, ChatGPT-3.5 and Humans in Clinical Chemistry Multiple-Choice Questions.
人類與人工智慧:ChatGPT-4 在臨床化學多選題中超越 Bing、Bard、ChatGPT-3.5 及人類。
Adv Med Educ Pract 2024-09-25
AI-generated vs. student-crafted assignments and implications for evaluating student work in nursing: an exploratory reflection.
AI 生成的作業與學生創作的作業及其對護理學生作品評估的影響:一項探索性反思。
Int J Nurs Educ Scholarsh 2024-10-14
隨著 AI 語言模型如 ChatGPT 的興起,護理教育中的學術誠信受到關注,特別是學生可能會提交 AI 生成的內容。研究中,四名護理學生提交了自己撰寫和 ChatGPT 生成的「致編輯的信」作業。結果顯示,雖然 AI 生成的內容語法正確,但常有過時或虛構的參考文獻,且缺乏深度。護理教育者需了解 AI 的能力與限制,以支持學生學習並維持學術誠信,並發展有效的評估策略,促進原創思考與批判性分析。
PubMedDOI
Testing the capacity of Bard and ChatGPT for writing essays on ethical dilemmas: A cross-sectional study.
測試 Bard 和 ChatGPT 在撰寫倫理困境論文的能力:一項橫斷面研究。
Sci Rep 2024-10-30
Could ChatGPT get an engineering degree? Evaluating higher education vulnerability to AI assistants.
ChatGPT 能獲得工程學位嗎?評估高等教育對 AI 助手的脆弱性。
Proc Natl Acad Sci U S A 2024-11-26
隨著像 ChatGPT 這樣的 AI 助手在高等教育中越來越普及,學生的使用帶來了教學與評量上的好處與挑戰。本研究針對大學評量在 STEM 課程中對生成式 AI 的脆弱性進行探討,分析了洛桑聯邦理工學院 50 門課程的評量題目。結果顯示,GPT-4 的正確回答率達 65.8%,使用不同提示策略時可達 85.1%。這顯示 AI 系統能通過許多核心課程的評量,讓人擔憂高等教育的認證完整性,並需重新評估評量設計以應對 AI 的進步。
PubMedDOI