原始文章

這篇論文探討了抄襲檢測問題,特別是在AI生成內容增多和網路資訊更易獲取的情況下。回顧了2019至2024年間的189篇研究,對比了不同的抄襲檢測技術,並分析了它們在區分人類與AI文本的有效性。作者提出了一個框架來理解抄襲類型和檢測方法,強調在識別微妙抄襲方面的進展,包括非文本內容的探索、機器學習應用及增強的語義分析。結論指出,整合多種分析方法對未來改善抄襲檢測最具潛力。 PubMed DOI


站上相關主題文章列表

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

生成式人工智慧,像是ChatGPT,最近因能生成類似人類的文本而受到關注,但在教育上的應用引發爭議。這篇回顧探討了整合這類技術所面臨的挑戰,並提出解決策略。研究發現抄襲是主要問題,還有責任、隱私、安全、歧視及數位鴻溝等風險。為了應對這些挑戰,提出了符合倫理和教學原則的實用策略。整體而言,這篇回顧強調了對生成式人工智慧在教育中影響的深入考量。 PubMed DOI

這項研究探討了人類評審、重複量化分析(RQA)和AI檢測工具GPTZero在辨別人類與AI生成的個人陳述的有效性,特別針對物理治療師教育計畫的申請。研究分析了50份梅奧診所的申請者陳述與50份由Google Gemini生成的陳述。結果顯示,人類評審在辨識上表現一致且準確,而RQA和GPTZero也各有優勢。研究強調,未來應結合這些方法,以提升對個人陳述的評估,確保學術誠信。 PubMed DOI

在學術界,生成式人工智慧的應用改變了內容創作,並引發著作權與原創性的討論。雖然AI工具如GPT-3提升了效率,但也對學術誠信造成挑戰。本文探討這些挑戰,並提倡建立新的道德使用框架。我們透過專案式學習(PBL)提升179名學生的參與度與表現,結果顯示PBL學生的成績與原創性均優於傳統學習者。Turnitin有效識別AI生成內容,未來應持續完善這些策略,以維護學術誠信。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究探討了人工智慧檢測器在辨別學生撰寫的論文與AI生成論文的效果,參與者為190名低年級解剖學與生理學的學生。研究分析了50篇論文,使用四種AI檢測器,並由人類評分者評估48篇。結果顯示,人類評分者的準確率為84-95%,而AI檢測器則為93-98%。假陽性率低,AI檢測器僅有1.3%的錯誤分類。學生調查顯示,許多人認為AI生成的論文優於自己的作品。整體來看,結合使用AI檢測器對教師評估學生作品是有效的策略。 PubMed DOI

這項研究探討了如何區分人類撰寫的摘要與ChatGPT生成的摘要,分析了160篇摘要,並使用了三種AI檢測工具和一個抄襲檢測器。研究發現,所有方法對摘要來源的判斷都有誤,學者的經驗影響檢測準確性,資深學者表現最佳。GPTZero和相似性檢測器在識別來源上特別有效。研究建議人類專家與AI工具合作,能提升識別學術摘要的準確性。 PubMed DOI

這項研究探討人工智慧(AI)如何透過提升效率、可及性和品質來改變科學寫作。研究評估了多種AI工具,如Elicit、Perplexity、Consensus、ChatGPT和Grammarly,重點在文獻回顧、資訊組織和文本清晰度的改善。結果顯示,AI工具能簡化文獻分析,特別對非母語英語使用者有幫助。不過,研究也提到技術不準確、寫作風格一致性及著作權等倫理問題。結論認為,AI雖能助力科學寫作,但需謹慎使用並遵循倫理標準,以維護學術誠信。 PubMed DOI

生成式 AI 工具像 ChatGPT,雖然能提升學術寫作效率,但也帶來抄襲、虛構內容和假文獻等問題。醫療模擬領域目前缺乏明確的 AI 使用倫理規範。本文整理出版商看法、潛在風險,並提出三種合乎倫理的 AI 寫作方式及四項指導原則,協助學者維持誠信與品質。 PubMed DOI

這項研究發現,目前免費的AI工具(如ChatGPT、Bard、SmallSEO)在偵測科學論文抄襲上效果有限,尤其對AI重寫過的內容幾乎無法辨識。也就是說,AI不僅難以抓出抄襲,還能幫助抄襲內容規避偵測,現階段並不可靠。 PubMed DOI