原始文章

這項研究評估了ChatGPT在回答多選題的表現,使用Rasch分析工具進行。研究針對2023年台灣大學入學英語測驗的10個題目,並將ChatGPT的回答與300名模擬學生的回答進行比較。主要發現包括:多選題難度一致增加,性別間無顯著差異,所有題目符合Rasch模型,且ChatGPT獲得A等級,表現優於其他等級(B到E)。總體來看,ChatGPT在這項英語測驗中展現出強大的能力。 PubMed DOI


站上相關主題文章列表

ChatGPT是一個受歡迎的工具,可提供有條理的回應。研究評估了它在醫學教育中的表現,測試了基礎醫學和臨床醫學的MCQs。結果顯示,在基礎醫學方面得分為74%,臨床醫學方面為70%,總體得分為72%。顯示ChatGPT對醫學生和教職員有幫助。 PubMed DOI

研究比較了ChatGPT和教授出的醫學考題,發現ChatGPT速度快但稍弱於人類相關性。ChatGPT有潛力迅速產生高品質的考題。 PubMed DOI

研究評估了ChatGPT在回答多重選擇題(MCQs)並提供理由的能力。總共有78道MCQs,312個問題,整體準確率為76%。在回憶和解釋問題上表現較好,解決問題方面表現較差。77.8%的回答提供正確理由,但也出現錯誤。建議在監督下使用,以避免傳播不準確信息。 PubMed DOI

研究發現ChatGPT在中文醫學考試中及格,但回答開放式問題準確度較低。儘管有多元見解,仍有改進空間。未來研究應探討ChatGPT在醫療領域的語言表現。 PubMed DOI

這項研究探討了使用ChatGPT來為醫學生生成以案例為基礎的多重選擇題。所創建的問題被納入醫學院考試中,顯示出合理的難度和區分度水平。研究結果表明,ChatGPT在考試開發方面具有潛力,但需要進一步研究以增強外部效度。 PubMed DOI

研究發現,ChatGPT在台灣護理師執照考試準備中有80.75%的準確率,但在不同科目表現不盡相同。它在臨床案例和複雜問題上有困難,答案和解釋也不一致。這突顯了ChatGPT在護理教育中的潛力和限制,對AI教育工具的發展有所助益。 PubMed DOI

這項研究評估了由 ChatGPT 創建的臨床案例故事和多重選擇題在一個針對醫學生的循證醫學培訓計畫中的有效性。結果顯示,在 ChatGPT 生成和人類撰寫的案例評估之間沒有顯著差異。一些多重選擇題具有可接受的心理計量特性,顯示 ChatGPT 在創建醫學培訓教材方面具有潛力。 PubMed DOI

研究發現ChatGPT 4在醫學研究生考試中表現準確,準確率受問題難度/長度影響。常見錯誤包括事實、上下文錯誤和遺漏。建議未來可用多選題評估LLM表現,並探討如何運用LLM技術改進醫療器材。 PubMed DOI

研究發現,在醫學院環境中,ChatGPT在回答多重選擇題時表現不錯,但若答案不正確,解釋準確性會下降。ChatGPT可作為學習輔助工具,但需謹慎使用,建議教師審查和補充解釋以確保學習效果。若有錯誤答案,學生應主動向教師求證。 PubMed DOI

研究評估了ChatGPT對2020年葡萄牙國家住院醫師選拔考試題目的分析能力。使用150道考題測試ChatGPT,計算每題難度。結果顯示ChatGPT預測的難度與實際相關,且能辨識較簡單問題。總結來說,研究顯示ChatGPT在預測考題難度方面有潛力,無需實際測試即可評估心理特性。 PubMed DOI