原始文章

2022年11月ChatGPT的發布引起了對生成式人工智慧(AI)的廣泛關注,促使學術期刊迅速制定相關政策,這些政策差異很大,有的要求作者聲明使用AI,有的則禁止使用。文章探討了機器學習和生成式AI的基本原理及其對科學出版的影響,並指出某些政策可能無法長期維持,因為AI生成的文本質量提升,檢測變得困難。文章呼籲成立專責小組,推動負責任的AI使用,以提升疼痛研究的出版質量。 PubMed DOI


站上相關主題文章列表

OpenAI的ChatGPT因能寫出符合學術期刊標準的論文而引起學術界關注。《自然》等期刊和世界醫學編輯協會已開始限制AI寫作的論文。但辨識AI和人類寫作的論文仍是挑戰,執行政策需適當工具。否則,政策可能難以實施。 PubMed DOI

AI寫作工具如ChatGPT因能像人類寫作般受歡迎。優點在於加速創新與多元觀點,但對研究誠信與人類研究者角色有爭議。科學界需討論AI對研究的影響,出版商制定AI指南,或擴及實驗設計與同行評審。科學家應積極參與討論,思考AI技術帶來的潛在後果。 PubMed DOI

這篇社論討論了像是chatGPT這樣的生成式人工智慧程式對科學出版的影響,尤其針對《生物心理學》期刊。強調這些程式可能帶來抄襲問題,以及確認AI生成想法歸屬的挑戰。呼籲作者們使用AI時要透明,當AI為想法來源時應宣告,並在AI參與時勤於引用先前文獻。 PubMed DOI

AI語言模型如ChatGPT可能改變醫學寫作等任務,但需解決偏見、錯誤、隱私等道德問題。應採取偵測偏見、保護隱私、透明度、考量就業影響等策略。醫學專家應驗證AI生成文字。解決問題可最大化AI好處,降低風險。本文探討AI在醫學寫作的道德影響,提供技術進步見解。 PubMed DOI

AI技術如ChatGPT在科學寫作中帶來機會,但也引發道德與隱私疑慮。研究顯示ChatGPT可能產生不準確內容,對醫學與工程領域構成風險。為因應此挑戰,研究者需具備批判思考能力,並建立相應政策以應對道德與隱私議題。 PubMed DOI

學術研究中常用AI工具,尤其在護理領域。37.6%的護理期刊要求明確聲明使用AI,提升透明度和可信度。其他領域期刊對AI使用的信息披露較少。應擴大要求聲明使用AI的範疇,提升同儕評審品質,遏止掠奪性期刊。護理研究者應積極參與討論,推動AI聲明標準化。 PubMed DOI

學術界對學生和研究人員如何使用像ChatGPT這樣的生成式人工智慧表示關注。《JMLA》編輯團隊在查閱其他期刊政策後,制定了一項有關在投稿中使用人工智慧的政策。本篇社論解釋了相關擔憂並介紹了這項新政策。 PubMed DOI

研究探討學術出版商如何因應使用AI技術,發現透明揭露下使用AI工具是被允許的,但仍需注意偏見和限制問題,需謹慎監督。強調應有靈活政策因應AI在研究中的變化角色。 PubMed DOI

生成式人工智慧技術正在革新科學寫作、洞察發現和程式碼開發。提示工程對於最大化人工智慧的效率和品質至關重要。研究人員應該將他們的專業知識與人工智慧結合起來,但不要過度依賴它,以確保高品質的科學研究。 PubMed DOI

這篇評論探討了在醫療領域使用像 ChatGPT 這類 AI 模型進行寫作輔助所面臨的倫理問題。儘管技術先進,但仍有不準確、缺乏上下文理解等問題。此外,隱私、數據安全、透明度、偏見和著作權等議題也令人擔憂。評論強調遵循規範和透明度的重要性,若能妥善管理這些挑戰,AI 模型將能在寫作上提供有價值的支持。 PubMed DOI