原始文章

這項研究調查了學術出版商對於負責任使用AI聊天機器人的政策,分析了162家國際科學、技術與醫學出版商的公開政策。結果顯示,只有34.6%的出版商有相關政策,且無出版商允許將AI聊天機器人列為作者。大多數出版商(87.5%)要求作者披露使用情況,四家則明確禁止使用。這顯示許多出版商尚未建立清晰的AI政策,未來12到18個月的研究可能會揭示政策的變化。 PubMed DOI


站上相關主題文章列表

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

這項研究探討了ChatGPT對學術寫作的創造力與抄襲影響,透過半結構式訪談收集了來自不同國家的10位研究者的看法。分析後發現五個主要主題:機會、人類協助、引發思考、省時和負面態度。雖然大多數研究者對ChatGPT持正面看法,但也擔心寫作技能下降和抄襲問題。他們認為,創造力可能會演變為使用像ChatGPT的工具,並強調需對其使用進行規範與承認。 PubMed DOI

這篇文章回顧了327篇來自Web of Science的文獻,探討ChatGPT在寫作上的應用。它指出ChatGPT能減輕寫作焦慮、提升效率,並協助生成科學論文,還能為研究者和學生提供反饋。不過,文章也提到數據準確性、倫理問題、抄襲風險和偏見等挑戰。作者身份驗證對學術寫作非常重要,以維持客觀性。文章呼籲未來研究應改善技術和政策,確保ChatGPT能支持倫理且可持續的學術寫作。 PubMed DOI

這項研究評估了烏干達醫學教職員對ChatGPT及其他人工智慧工具的使用情況,發現大多數參與者為男性,年齡中位數41歲。90%的人聽過人工智慧工具,63%有使用經驗,ChatGPT最受歡迎。教職員主要用這些工具進行研究寫作和考試準備,但50歲以上的教職員使用意願較低。研究建議需加強培訓及制定政策,以更有效地整合人工智慧於醫學教育中。 PubMed DOI

2023年ChatGPT-3的推出對人工智慧(AI)領域,特別是科學出版,帶來了重大影響。雖然ChatGPT無法訪問受版權保護的資料,這限制了其在科學出版中的應用。評論指出,LLMs在出版中的三個主要用途包括抄襲檢測、協助期刊編輯篩選文章,以及Elsevier即將推出的Scopus AI。Scopus AI基於ChatGPT-3.5,能撰寫評論或研究文章的引言,這讓非Elsevier期刊編輯擔心誠信問題,因為他們必須信任作者不會不當使用這個工具。 PubMed DOI

生成式 AI 工具像 ChatGPT,雖然能提升學術寫作效率,但也帶來抄襲、虛構內容和假文獻等問題。醫療模擬領域目前缺乏明確的 AI 使用倫理規範。本文整理出版商看法、潛在風險,並提出三種合乎倫理的 AI 寫作方式及四項指導原則,協助學者維持誠信與品質。 PubMed DOI

AI(像 ChatGPT)在牙醫等領域越來越常被用來蒐集資料和寫論文,確實很方便。不過,若要產出高品質、能發表、推動科學進步的研究,AI 目前還是沒辦法完全取代人類的專業判斷和參與。 PubMed DOI

這項研究發現,目前主流AI聊天機器人在辨識被劫持的醫學期刊時表現不佳,即使是表現最好的Copilot也會出錯。整體來說,這些AI工具不適合用來判斷期刊真偽,甚至可能誤導使用者,無意間推廣假期刊。 PubMed DOI

AI心理健康聊天機器人發展很快,但因缺乏監管和評估,安全性和有效性引發疑慮。文章建議建立標準化評估框架,強調倫理、循證、對話品質和安全。實施上有挑戰,如評估複雜對話和專家監督。作者呼籲開發者優先考量使用者安全,並讓消費者參與評估。 PubMed DOI

AI,尤其是大型語言模型,正大幅改變醫療研究,但也帶來作者歸屬、透明度和濫用等倫理問題。各大組織強調AI應負責任且透明使用,並不承認聊天機器人為共同作者。未來AI應用需持續遵守倫理規範,審慎推動。 PubMed DOI