原始文章

隨著像ChatGPT這樣的AI工具在學術研究中的普及,關於作者身份和透明度的討論愈加重要。這篇評論強調需要建立一個標準化的AI貢獻分類法,以明確AI在研究中的角色。透過調整NIST的分類法,新增假設生成、數據分析等任務類別,可以提升研究的透明度和問責制。這樣的分類法能解決目前AI貢獻披露的不一致,幫助區分AI與人類的任務,促進符合倫理標準的報告,最終增進對AI在研究中使用的信任,維護學術誠信。 PubMed DOI


站上相關主題文章列表

這封信建議在新的編輯政策中增加一個技術細節,關於在學術出版物中揭露使用人工智慧。建議AI系統不應該被列為作者,因為它們不符合像ICMJE標準這樣的作者資格要求。 PubMed DOI

2022年底,AI聊天機器人ChatGPT因寫作技能在學術界引起爭議。研究人員爭論是否可將其列為論文作者,但《自然》和《科學》澄清非人AI不能算作者。儘管AI生成文本無版權,像ChatGPT可創作內容,但無責任,類似搜尋引擎。從研究倫理看,它們不算作者。 PubMed DOI

ChatGPT和GPT-4是OpenAI開發的語言模型,可輔助寫科學文章,包括搜尋文獻、寫大綱、各節內容、格式設定和翻譯。速度快但可能有錯誤和偏見。在科學論文中使用AI寫手有爭議,有人接受在致謝中提及AI,有人則不認同AI為作者。需進一步研究AI在研究報告中的潛力和限制。 PubMed DOI

編輯和出版商負責在學術出版物中檢測像ChatGPT這樣的人工智慧生成的文字,以維護作者身份的完整性,並防止人工智慧驅動的客座作者。這項政策旨在維護生物醫學文獻的可信度。最近某期期刊的信件編輯是由ChatGPT撰寫的,但其貢獻程度尚不清楚。 PubMed DOI

學者們擔心在學術著作中使用ChatGPT可能影響誠信與效度,雖可協助起草,但不符合作者資格。有些出版物將ChatGPT當作作者,導致學術出版過程不確定。需明確指引應對此問題,防止不當出版行為。應教育人們限制ChatGPT使用,避免誤列共同作者。儘管對某些任務有幫助,但不適用於正式科學報告。 PubMed DOI

人工智慧工具如OpenAI的ChatGPT在各領域有潛力,但應視為輔助而非取代人類專業知識。需注意挑戰如批判思考、虛假資訊,並重視透明度、責任制和隱私。評估內容並堅守學術誠信至關重要。合作與溝通對於負責任運用人工智慧至關重要,需發展相關工具、指南、法規並進行公眾對話。 PubMed DOI

ChatGPT是一個AI語言模型,正在改變科學寫作和醫學研究,協助研究人員進行文獻回顧、起草和編輯等任務。雖提高效率,但也引發倫理、偏見、準確性和原創性的疑慮。研究人員需確保透明度、數據驗證,保持批判思維,並在手稿中承認使用AI的重要性。ChatGPT需與研究人員專業知識結合,推動科學進步和倫理標準。 PubMed DOI

AI技術如ChatGPT在科學寫作中帶來機會,但也引發道德與隱私疑慮。研究顯示ChatGPT可能產生不準確內容,對醫學與工程領域構成風險。為因應此挑戰,研究者需具備批判思考能力,並建立相應政策以應對道德與隱私議題。 PubMed DOI

研究分析了在Dimensions數據庫中1,226篇文章,發現ChatGPT等AI工具在學術文獻中廣泛應用。美國作者表現優異,中國和印度也有貢獻。生醫、臨床科學和資訊計算是主要應用領域。"The Lancet Digital Health"和"bioRxiv"是常見致謝地點,顯示AI對研究有重要影響。研究聚焦在Dimensions,未考慮其他來源,也未評估致謝品質或道德。結果提供學術界有關AI使用的道德信息,是對AI致謝模式的首次全面分析,揭示未曾探索的學術交流面向。 PubMed DOI

研究發現有14篇論文把ChatGPT當作作者,違反了學術道德準則。這引起了對作者身份和AI內容負責的疑慮。這些論文被廣泛引用,顯示了學術與道德之間的落差,需要採取措施來解決這些問題。 PubMed DOI