原始文章

這項研究發現,目前免費的AI工具(如ChatGPT、Bard、SmallSEO)在偵測科學論文抄襲上效果有限,尤其對AI重寫過的內容幾乎無法辨識。也就是說,AI不僅難以抓出抄襲,還能幫助抄襲內容規避偵測,現階段並不可靠。 PubMed DOI


站上相關主題文章列表

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

這項研究探討了ChatGPT對學術寫作的創造力與抄襲影響,透過半結構式訪談收集了來自不同國家的10位研究者的看法。分析後發現五個主要主題:機會、人類協助、引發思考、省時和負面態度。雖然大多數研究者對ChatGPT持正面看法,但也擔心寫作技能下降和抄襲問題。他們認為,創造力可能會演變為使用像ChatGPT的工具,並強調需對其使用進行規範與承認。 PubMed DOI

這項研究探討了人類評審、重複量化分析(RQA)和AI檢測工具GPTZero在辨別人類與AI生成的個人陳述的有效性,特別針對物理治療師教育計畫的申請。研究分析了50份梅奧診所的申請者陳述與50份由Google Gemini生成的陳述。結果顯示,人類評審在辨識上表現一致且準確,而RQA和GPTZero也各有優勢。研究強調,未來應結合這些方法,以提升對個人陳述的評估,確保學術誠信。 PubMed DOI

這項研究探討人類評審者在辨識ChatGPT生成的科學摘要與原始摘要的準確性。來自不列顛哥倫比亞大學的41名外科實習生和教職員參加了線上調查,結果顯示只有40%能正確識別原始摘要,而63.4%偏好AI生成的摘要。分析指出,偏好原始摘要的受訪者更容易正確識別。這顯示人類在區分AI與人類生成內容上面臨挑戰,並且對AI生成的摘要有明顯偏好,突顯了AI在學術寫作中的影響及其倫理考量。 PubMed DOI

這項研究探討醫療專家與人文學者在辨識醫學生與ChatGPT生成文本的能力。研究於2023年5月至8月進行,35位專家分析了兩篇醫學主題的文本,並被要求找出AI生成的部分。結果顯示,專家們在70%的情況下正確識別AI文本,兩組專家之間差異不大。雖然內容錯誤影響不大,但冗餘、重複和連貫性等風格特徵對他們的判斷至關重要。研究建議未來可在不同學術領域進一步探討,以提升辨識能力。 PubMed DOI

這項研究探討了如何區分人類撰寫的摘要與ChatGPT生成的摘要,分析了160篇摘要,並使用了三種AI檢測工具和一個抄襲檢測器。研究發現,所有方法對摘要來源的判斷都有誤,學者的經驗影響檢測準確性,資深學者表現最佳。GPTZero和相似性檢測器在識別來源上特別有效。研究建議人類專家與AI工具合作,能提升識別學術摘要的準確性。 PubMed DOI

生成式 AI 工具像 ChatGPT,雖然能提升學術寫作效率,但也帶來抄襲、虛構內容和假文獻等問題。醫療模擬領域目前缺乏明確的 AI 使用倫理規範。本文整理出版商看法、潛在風險,並提出三種合乎倫理的 AI 寫作方式及四項指導原則,協助學者維持誠信與品質。 PubMed DOI

這項研究比較AI(ChatGPT和scite Assistant)和人類寫的科學論文,評估正確性、可讀性和被接受度。結果顯示,人類寫的論文品質最高,尤其是跟骨骨折主題。AI寫的論文內容大致正確,但引用準確度不一,ChatGPT表現較好。結論是AI能輔助科學寫作,但還是需要嚴格查證,才能確保內容正確。 PubMed DOI

這項研究發現,目前主流AI聊天機器人在辨識被劫持的醫學期刊時表現不佳,即使是表現最好的Copilot也會出錯。整體來說,這些AI工具不適合用來判斷期刊真偽,甚至可能誤導使用者,無意間推廣假期刊。 PubMed DOI

這項初步研究發現,AI生成的學術摘要即使經過人工編輯或模仿特定作者風格,還是有很大機率被AI偵測工具抓出來。雖然人工編輯能降低被發現的機率,但不代表就能完全避開偵測。不同偵測工具結果也不太一樣,未來還需要更多研究來釐清AI寫作和偵測之間的互動。 PubMed DOI