原始文章

最近,人工智慧的進展讓區分人類和AI生成的文本變得困難,因此對檢測工具的需求增加。本研究針對高等教育的研究生入學過程,專注於識別AI生成的推薦信和意向書,以確保申請者的真實能力被公平評估。研究分析了福坦大學的3,755封推薦信和1,973份意向書,並利用GPT-3.5 Turbo API生成AI版本。結果顯示,透過足夠的訓練數據,可以開發出有效的檢測模型,並已在GitHub上公開代碼供測試。 PubMed DOI


站上相關主題文章列表

AI程式幫麻醉科住院醫師寫個人陳述,著重運動和美食烹飪經驗,得到主任高評價。研究指出AI如ChatGPT能有效模擬真實申請者,提供快速、省錢、高品質替代方案,適用於麻醉科住院醫師的個人陳述。 PubMed DOI

ChatGPT改變了人們的工作、學習和寫作方式,現在區分人類和AI寫作變得重要。一種方法可區分ChatGPT和科學家的文字,科學家常用長段落和含糊詞語。透過監督式分類方法,建立了可準確識別作者的模型,可用於檢測學術寫作和其他領域中的AI使用。 PubMed DOI

ChatGPT等大型語言模型的普及,讓學生在學業上有更多便利,但也引發了學術誠信議題。研究比較了ChatGPT在大學課業中的表現,結果顯示它在各種科目中表現良好,難以被檢測。學生接受度高,但教育工作者擔心抄襲問題。這些結果對於未來教育政策的制定有所助益。 PubMed DOI

ChatGPT等生成式AI模型廣泛運用,將對教育和資訊生成產生重大影響。研究指出,AI文章品質較高,風格與人寫不同。建議教育工作者應融入AI技術,重新思考作業方式,並運用AI工具提升學習成效。 PubMed DOI

LORs在學術醫學中很重要,但寫起來費時。用像ChatGPT這樣的AI工具寫LORs越來越受歡迎。研究發現學術醫師難以分辨AI和人工寫的LORs。AI可協助寫LORs,但需訂定政策以確保晉升公平。 PubMed DOI

研究比較物理治療師教育計畫申請者的個人陳述和OpenAI的ChatGPT所生成的陳述複雜度,發現ChatGPT生成的較複雜。透過循環量化分析(RQAs)區分兩者,確定性是主要區分因子。建議RQA可幫助招生委員會辨識AI生成的陳述,需重新評估招生過程中個人陳述的重要性。 PubMed DOI

AI技術進步,醫學期刊探討AI生成文本政策增加。然而,AI檢測工具在分辨人類和AI內容上有準確性問題。研究指出,現有AI檢測工具在辨識AI生成文本時錯誤率高,引發對依賴此工具執行政策的疑慮。 PubMed DOI

隨著大型語言模型和人工智慧工具在健康專業入學申請中的使用增加,帶來了機會與倫理挑戰。研究回顧了1706篇文獻,最終納入18篇,探討了AI在篩選申請者、生成個人陳述、偵測AI生成內容及推薦信分析中的應用。雖然AI能提升效率,但亟需明確指導方針來應對倫理問題,特別是在護理教育方面,還需進一步研究。 PubMed DOI

這項研究探討了生成式人工智慧工具(如ChatGPT和Google BARD)在醫學生撰寫住院醫師申請個人陳述的表現。研究發現,教職員能正確識別88%的真實陳述和90%的BARD生成陳述,但只有44%的ChatGPT陳述被正確辨識。整體準確率為74%。雖然AI能生成有說服力的陳述,但在表現人文和個人化元素上仍有不足。因此,住院醫師選拔委員會應重視這些人性化指標,以提升評估的準確性。 PubMed DOI

最近大型語言模型(如ChatGPT和Bard)在教育領域的應用引發了對學術論文寫作潛在濫用的擔憂。本研究探討這些模型是否能生成關於醫學生個人經歷和倫理困境的非結構性論文,並檢視其是否能與人類作品區分。 研究團隊收集了47篇學生的原創論文,並利用這些內容生成相同數量的AI論文。分析結果顯示,AI生成的論文在情感和分析思維的語言使用上較學生作品更為頻繁。儘管存在語言特徵的差異,兩個LLMs在反映學生對倫理困境的經歷方面均表現出高度有效性。 PubMed DOI