原始文章

這篇論文反對將人工智慧(AI)系統,特別是大型語言模型(LLMs),列為科學論文的作者。作者認為,LLMs 無法對其產出負責,這是成為作者的必要條件。他們指出,AI 工具不具備有意義的寫作能力,也缺乏持久身份,並討論了 AI 作為作者可能對學術出版造成的負面影響。最後,作者質疑僅為了發表而使用 AI 生成更多研究的價值,並建議應該能夠識別過去 AI 使用的工具,以防止其成為作者。 PubMed DOI


站上相關主題文章列表

這封信建議在新的編輯政策中增加一個技術細節,關於在學術出版物中揭露使用人工智慧。建議AI系統不應該被列為作者,因為它們不符合像ICMJE標準這樣的作者資格要求。 PubMed DOI

2022年底,AI聊天機器人ChatGPT因寫作技能在學術界引起爭議。研究人員爭論是否可將其列為論文作者,但《自然》和《科學》澄清非人AI不能算作者。儘管AI生成文本無版權,像ChatGPT可創作內容,但無責任,類似搜尋引擎。從研究倫理看,它們不算作者。 PubMed DOI

ChatGPT和GPT-4是OpenAI開發的語言模型,可輔助寫科學文章,包括搜尋文獻、寫大綱、各節內容、格式設定和翻譯。速度快但可能有錯誤和偏見。在科學論文中使用AI寫手有爭議,有人接受在致謝中提及AI,有人則不認同AI為作者。需進一步研究AI在研究報告中的潛力和限制。 PubMed DOI

AI工具如ChatGPT可幫助改進研究論文,但要注意準確性、責任性和作者身份透明度。基因組算法能快速分析基因數據,找出疾病突變和治療方法。與非人類作者合作可促進跨學科研究,但要注意算法偏見風險。學者應處理道德問題,對抗偏見,確保研究完整性。重要的是學者認識問題,採取預防措施,避免AI算法偏見,獲得可靠和道德結果。 PubMed DOI

這篇社論討論了像是chatGPT這樣的生成式人工智慧程式對科學出版的影響,尤其針對《生物心理學》期刊。強調這些程式可能帶來抄襲問題,以及確認AI生成想法歸屬的挑戰。呼籲作者們使用AI時要透明,當AI為想法來源時應宣告,並在AI參與時勤於引用先前文獻。 PubMed DOI

人工智慧改變科學出版方式,提升效率但也引發道德疑慮。研究者需平衡獲益與獨立思考,避免道德困境如原創性和抄襲問題。在AI時代,人類審稿人扮演關鍵角色,確保真實性。提出指標和激勵措施維持學術平衡。未來科學出版需人工智慧與人類專業知識共生,建立道德高效環境。 PubMed DOI

這篇文章討論了大型語言模型(LLMs)和人工智慧(AI)在科學寫作中的整合,特別是在醫學文獻的運用。強調了使用LLMs整合資訊和全球知識傳播的好處和挑戰,也提到了潛在問題,如意外抄襲、錯誤資訊、偏見和過度依賴AI。作者提出了確保完整性和責任的AI原則,建議在手稿中報告AI參與的指引,並介紹了一個用於指定AI協助程度的分類系統。強調透明度、作者資格和AI使用中的道德考量,並討論了訪問公平性、AI生成內容中的偏見、作者身份動態和責任問題等議題。建議促進AI開發人員、研究人員和編輯之間的合作,並倡導負責任地使用AI於學術寫作。同時建議定期評估AI對醫學手稿質量和偏見的影響,以確保科學文獻的完整性在AI發展中得以維持。 PubMed DOI

研究發現有14篇論文把ChatGPT當作作者,違反了學術道德準則。這引起了對作者身份和AI內容負責的疑慮。這些論文被廣泛引用,顯示了學術與道德之間的落差,需要採取措施來解決這些問題。 PubMed DOI

這篇論文評估像 ChatGPT 這類聊天機器人在科學寫作中的影響,探討其潛在好處與倫理問題。ChatGPT 能自動生成草稿,可能簡化研究者的寫作過程,但也帶來了區分人類與 AI 生成文本的挑戰,特別是在著作權和科學溝通的完整性上。檢測真實作者身份的複雜性需要仔細的批判性閱讀與分析。這項研究旨在提供關於將 AI 工具整合進學術寫作的優缺點的平衡觀點。 PubMed DOI

這篇評論探討了在醫療領域使用像 ChatGPT 這類 AI 模型進行寫作輔助所面臨的倫理問題。儘管技術先進,但仍有不準確、缺乏上下文理解等問題。此外,隱私、數據安全、透明度、偏見和著作權等議題也令人擔憂。評論強調遵循規範和透明度的重要性,若能妥善管理這些挑戰,AI 模型將能在寫作上提供有價值的支持。 PubMed DOI