原始文章

這項研究調查了學術出版商對於負責任使用AI聊天機器人的政策,分析了162家國際科學、技術與醫學出版商的公開政策。結果顯示,只有34.6%的出版商有相關政策,且無出版商允許將AI聊天機器人列為作者。大多數出版商(87.5%)要求作者披露使用情況,四家則明確禁止使用。這顯示許多出版商尚未建立清晰的AI政策,未來12到18個月的研究可能會揭示政策的變化。 PubMed DOI


站上相關主題文章列表

OpenAI的ChatGPT因能寫出符合學術期刊標準的論文而引起學術界關注。《自然》等期刊和世界醫學編輯協會已開始限制AI寫作的論文。但辨識AI和人類寫作的論文仍是挑戰,執行政策需適當工具。否則,政策可能難以實施。 PubMed DOI

這封信提出了對於在同儕評審中使用像ChatGPT這樣的人工智慧工具缺乏明確編輯指南的擔憂。信中強調了需要標準化政策來維護學術出版中的公平性、透明度和責任制。若沒有這些指南,將有損同儕評審過程和學術出版物的可信度。需要立即採取行動,制定強而有力的人工智慧工具在同儕評審中的使用協議。 PubMed DOI

AI在學術研究中的應用日益增加,引起了道德上的關注。我探討科學和醫學領域的出版政策,發現在指導AI使用方面存在一些空白。我建議建立一個框架,包括作者和審稿人指南,以促進負責任的AI整合和透明度。 PubMed DOI

研究探討學術出版商如何因應使用AI技術,發現透明揭露下使用AI工具是被允許的,但仍需注意偏見和限制問題,需謹慎監督。強調應有靈活政策因應AI在研究中的變化角色。 PubMed DOI

研究發現大部分學者對ChatGPT有所認識,但使用經驗不足。有人支持ChatGPT成為作者之一,也有人擔心其道德影響。為了正確且符合道德標準地運用聊天機器人和人工智慧工具於學術研究,必須建立適當規範並提供相應培訓。 PubMed DOI

研究比較三個AI聊天機器人在提供產科文獻參考資料的可靠度,發現Google Bard最準確,而ChatGPT和Chatsonic較不準確。使用AI做科學寫作和文獻搜尋時要小心,但AI與研究人員合作或許有助於進步病患護理。 PubMed DOI

研究發現有14篇論文把ChatGPT當作作者,違反了學術道德準則。這引起了對作者身份和AI內容負責的疑慮。這些論文被廣泛引用,顯示了學術與道德之間的落差,需要採取措施來解決這些問題。 PubMed DOI

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

這篇論文評估像 ChatGPT 這類聊天機器人在科學寫作中的影響,探討其潛在好處與倫理問題。ChatGPT 能自動生成草稿,可能簡化研究者的寫作過程,但也帶來了區分人類與 AI 生成文本的挑戰,特別是在著作權和科學溝通的完整性上。檢測真實作者身份的複雜性需要仔細的批判性閱讀與分析。這項研究旨在提供關於將 AI 工具整合進學術寫作的優缺點的平衡觀點。 PubMed DOI

2023年ChatGPT-3的推出對人工智慧(AI)領域,特別是科學出版,帶來了重大影響。雖然ChatGPT無法訪問受版權保護的資料,這限制了其在科學出版中的應用。評論指出,LLMs在出版中的三個主要用途包括抄襲檢測、協助期刊編輯篩選文章,以及Elsevier即將推出的Scopus AI。Scopus AI基於ChatGPT-3.5,能撰寫評論或研究文章的引言,這讓非Elsevier期刊編輯擔心誠信問題,因為他們必須信任作者不會不當使用這個工具。 PubMed DOI