原始文章

這項研究探討了生成式人工智慧工具(如ChatGPT和Google BARD)在醫學生撰寫住院醫師申請個人陳述的表現。研究發現,教職員能正確識別88%的真實陳述和90%的BARD生成陳述,但只有44%的ChatGPT陳述被正確辨識。整體準確率為74%。雖然AI能生成有說服力的陳述,但在表現人文和個人化元素上仍有不足。因此,住院醫師選拔委員會應重視這些人性化指標,以提升評估的準確性。 PubMed DOI


站上相關主題文章列表

AI文字預測模型如ChatGPT已普及。研究生醫學課程主任應了解其對個人陳述等任務的影響。建議訂立明確準則以處理AI生成的申請材料。研究生醫學教育需處理AI在臨床和教育中的道德使用,制定計畫、更新政策,並進行全國性討論,以有效管理AI的應用增加。 PubMed DOI

AI程式幫麻醉科住院醫師寫個人陳述,著重運動和美食烹飪經驗,得到主任高評價。研究指出AI如ChatGPT能有效模擬真實申請者,提供快速、省錢、高品質替代方案,適用於麻醉科住院醫師的個人陳述。 PubMed DOI

研究比較ChatGPT生成的個人陳述和申請者寫的陳述,發現兩者在評分上沒有明顯差異,顯示ChatGPT生成的陳述品質不輸給申請者。建議重新檢視整形外科住院醫師申請格式,以更全面評估學生。 PubMed DOI

研究比較物理治療師教育計畫申請者的個人陳述和OpenAI的ChatGPT所生成的陳述複雜度,發現ChatGPT生成的較複雜。透過循環量化分析(RQAs)區分兩者,確定性是主要區分因子。建議RQA可幫助招生委員會辨識AI生成的陳述,需重新評估招生過程中個人陳述的重要性。 PubMed DOI

這項研究探討普通外科住院醫師訓練的教職員是否能區分人類與AI(如ChatGPT)撰寫的文章。研究生成了十篇文章,五篇由住院醫師撰寫,五篇由ChatGPT生成。十位教職員進行盲評,結果顯示兩組文章的得分差異不大,ChatGPT的平均得分為66.0%,人類為70.0%。教職員在識別文章來源上也面臨困難,顯示出對AI生成內容的偏見。這提醒學術界需準備面對AI在醫學教育中的影響。 PubMed DOI

將人工智慧(AI)融入一般外科住院醫師訓練的招募過程,顯示出能改善傳統審查方法的不足。本研究評估了AI,特別是ChatGPT,在醫學生表現評估(MSPE)信件中的穩定性,並與經驗豐富的人類審查者比較。結果顯示,ChatGPT的評分一致性優於人類,但也有其局限性。這強調了在此背景下謹慎使用AI的必要性。雖然AI有助於改善住院醫師選拔,但仍需進一步研究以全面了解其能力與影響。 PubMed DOI

這項研究探討放射科住院醫師計畫主任對住院醫師申請者使用大型語言模型(如ChatGPT)撰寫個人陳述的看法。八位主任參加了調查和焦點小組討論,評估了五位申請者的四種不同版本的陳述。結果顯示,LLM生成的陳述質量被評為一般或更差的比例達56%,而人類撰寫的則為29%。主任們雖然對區分兩者的能力不自信,但能準確識別人類撰寫的陳述。焦點小組討論中,主任們對AI影響個人陳述的真實性和價值表示擔憂,並指出AI生成內容中申請者的聲音減弱。這項研究突顯了AI在住院醫師申請過程中的挑戰與影響。 PubMed DOI

這項研究探討外科住院醫師申請審核者辨識AI生成的個人陳述的能力及其看法。研究使用ChatGPT創建三份AI陳述,並與三份成功申請的醫學生陳述比較。結果顯示,審核者正確辨識AI陳述的比例僅59%,且66.7%的人反對在個人陳述中使用AI。大多數參與者認為AI會影響他們對申請者的看法。這項研究強調了辨識AI生成內容的挑戰,並對其在住院醫師申請中的影響表示擔憂。 PubMed DOI

最近,人工智慧的進展讓區分人類和AI生成的文本變得困難,因此對檢測工具的需求增加。本研究針對高等教育的研究生入學過程,專注於識別AI生成的推薦信和意向書,以確保申請者的真實能力被公平評估。研究分析了福坦大學的3,755封推薦信和1,973份意向書,並利用GPT-3.5 Turbo API生成AI版本。結果顯示,透過足夠的訓練數據,可以開發出有效的檢測模型,並已在GitHub上公開代碼供測試。 PubMed DOI

這項研究探討了ChatGPT生成的整形外科住院醫師個人陳述是否能與人類撰寫的內容相媲美。研究結果顯示,AI生成的陳述平均得分為7.48,而人類撰寫的為7.68,兩者之間並無顯著差異。評估者對於陳述來源的識別準確率為65.9%,顯示AI生成的內容越來越精緻。這強調了在住院醫師申請中,需更新評估標準以應對人工智慧的影響。 PubMed DOI