原始文章

這項初步研究發現,AI生成的學術摘要即使經過人工編輯或模仿特定作者風格,還是有很大機率被AI偵測工具抓出來。雖然人工編輯能降低被發現的機率,但不代表就能完全避開偵測。不同偵測工具結果也不太一樣,未來還需要更多研究來釐清AI寫作和偵測之間的互動。 PubMed DOI


站上相關主題文章列表

這研究主要是用ChatGPT等AI工具來辨識抄襲,透過文體特徵分析。測試了各種分類器,發現XGBoost最擅長區分人類和AI寫作風格。新方法比現有技術更優,達到100%的準確率、召回率和精確度。成功將混合文本分類,並高準確度歸因於作者。 PubMed DOI

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

這項初步研究探討了人類撰寫的讀者來信與ChatGPT生成的來信的可讀性,特別是ChatGPT是否能模仿人類的寫作風格。研究中生成了針對先前文章的反對信,並由八位教授評估這些信件的可讀性。結果顯示,人類撰寫的信件在可讀性上被認為與ChatGPT生成的信件相當,甚至更佳。研究強調,人類的熱情和個人風格對有效溝通仍然至關重要,並呼籲進一步探討AI的潛力與限制。 PubMed DOI

使用像ChatGPT的人工智慧生成書面內容,讓我們對寫作中的「人聲」真實性和獨創性產生了重要疑問。測試顯示,ChatGPT能從多種輸入中創造出連貫且吸引人的文章,甚至能進行跨語言翻譯。雖然結果令人鼓舞,但也讓我們重新思考著作權及人工智慧在創意表達中的角色。這可能需要監管措施,以確保人類作家的獨特觀點和情感深度不被忽視。關於人工智慧在寫作中的角色討論才剛開始,考慮其對作家和讀者的影響非常重要。 PubMed DOI

最近,人工智慧的進展讓區分人類和AI生成的文本變得困難,因此對檢測工具的需求增加。本研究針對高等教育的研究生入學過程,專注於識別AI生成的推薦信和意向書,以確保申請者的真實能力被公平評估。研究分析了福坦大學的3,755封推薦信和1,973份意向書,並利用GPT-3.5 Turbo API生成AI版本。結果顯示,透過足夠的訓練數據,可以開發出有效的檢測模型,並已在GitHub上公開代碼供測試。 PubMed DOI

這項研究探討了生成式 AI 模型(如 ChatGPT、Gemini 和 Claude)在 K-12 教育中的應用,強調其在各科目的優勢,並討論學術不誠實的倫理問題。研究使用傳統機器學習模型和大型語言模型來檢測高風險寫作評估中的 AI 生成內容,並評估檢測方法的效果,考慮改寫工具的影響。研究還引入新方法,利用同義詞資訊識別人性化的 AI 文字,並探討數據集大小對模型表現的影響,以指導未來的數據收集。 PubMed DOI

這項研究探討人類評審者在辨識ChatGPT生成的科學摘要與原始摘要的準確性。來自不列顛哥倫比亞大學的41名外科實習生和教職員參加了線上調查,結果顯示只有40%能正確識別原始摘要,而63.4%偏好AI生成的摘要。分析指出,偏好原始摘要的受訪者更容易正確識別。這顯示人類在區分AI與人類生成內容上面臨挑戰,並且對AI生成的摘要有明顯偏好,突顯了AI在學術寫作中的影響及其倫理考量。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究探討了如何區分人類撰寫的摘要與ChatGPT生成的摘要,分析了160篇摘要,並使用了三種AI檢測工具和一個抄襲檢測器。研究發現,所有方法對摘要來源的判斷都有誤,學者的經驗影響檢測準確性,資深學者表現最佳。GPTZero和相似性檢測器在識別來源上特別有效。研究建議人類專家與AI工具合作,能提升識別學術摘要的準確性。 PubMed DOI

這項研究建立了一個結合人類和 ChatGPT 生成文本的資料集,訓練多種機器學習模型來偵測 AI 內容。以 Transformer 架構、特別是自訂 RoBERTa 模型,能有效分辨 AI 與人類文本(F1 分數 0.992,準確率 0.991),為 AI 文字偵測提供強力基準。未來建議擴展到其他 AI 來源並持續優化偵測技術。 PubMed DOI