原始文章

是的,人工智慧確實能增強國家支持的宣傳活動。最近的研究顯示,生成式人工智慧工具已被用於與國家相關的宣傳網站,像是俄羅斯的網站,提升了製造虛假資訊的能力。研究結果指出: 1. **產出增加**:這些媒體能產生更多虛假資訊,讓錯誤敘事更容易散播。 2. **內容多樣化**:使用人工智慧後,發表的內容量和範圍明顯增加,顯示出更廣泛的宣傳努力。 3. **說服力**:調查顯示,人工智慧撰寫的文章仍具說服力,質量未下降。 總之,生成式人工智慧工具已改變國家支持的宣傳活動,使虛假資訊的散播更有效。 PubMed DOI


站上相關主題文章列表

人工智慧工具方便做資料分析,但也可能被拿來造假。雖然有偵測器可找出欺詐,但技術進步,偽造更巧妙。我們測試了偵測工具,發現稍微修改就能讓人工智慧文字像人類寫的。用西里爾字母等方法,讓偵測更困難。即使強偵測器也可能被繞過。未來科學寫作和偵測挑戰更不確定。 PubMed DOI

AI技術進步,像ChatGPT這樣的模型造成許多誤導性醫療資訊流傳。這些AI能修改各種內容,但可靠性有疑慮,可能散播錯誤。精神科醫師需注意病人可能在網路上接觸到錯誤資訊,尤其是有關心理健康和治療的。 PubMed DOI

結合微定向廣告和像ChatGPT這樣的AI工具引發對大型語言模型應用於政治微定向的擔憂。研究指出,個性化政治廣告比非個性化更有效,且生成和驗證這些廣告在大規模上是可行的。這凸顯了使用AI和微定向來度身訂製政治訊息的風險,對倫理學家和政策制定者構成問題。 PubMed DOI

一項研究發現,像GPT-3這樣的大型語言模型可以生成與外國宣傳者創建的內容相似的有說服力的宣傳。通過編輯輸入到GPT-3或精心挑選其輸出,可以進一步增強生成宣傳的說服力。這表明人工智慧可能被宣傳者用來輕鬆創建具有說服力的內容。 PubMed DOI

使用像ChatGPT這樣的大型語言模型,根據收件人的心理特徵製作個性化訊息,可以大幅提升訊息的影響力。研究發現,在1788名參與者中,由ChatGPT生成的個性化訊息在各個領域和心理特徵上比非個性化訊息更具說服力。這顯示了大型語言模型在自動化和擴展個性化說服方面的潛力,提高了效果和效率。這些發現對研究人員、從業者和一般大眾都具有重要意義。 PubMed DOI

生成式人工智慧可提升個人創造力,但可能限制集體創新,因為內容相似。實驗顯示,對於缺乏創意的作者,使用AI點子有助提升創造力和寫作品質。然而,AI生成的故事相似度高,可能降低多樣性。這個困境凸顯個人創造力與集體創新的取捨。對支持創造力的研究者、政策者和從業者具啟發意義。 PubMed DOI

這項研究探討了生成式人工智慧的倫理影響,特別是如何根據使用者所採用的AI類型來分配功勞和責任。主要發現包括: 1. **功勞歸屬**:使用個性化大型語言模型的參與者,對其貢獻的認可較高,顯示個性化增強了貢獻感。 2. **責任歸屬**:對於有害輸出的責任分配,LLM類型影響不大,顯示負面結果的責任看法較一致。 3. **文化差異**:英國參與者更傾向於對使用LLM的人分配責任,顯示文化差異在AI使用認知上的影響。 這些結果對於AI的倫理指導、政策制定及技術發展具有重要意義。 PubMed DOI

這項研究探討生成式人工智慧(AI)標籤對用戶對內容準確性、可信度和分享意圖的影響,特別是在錯誤資訊的情境下。研究包含957名參與者,結果顯示AIGC標籤對感知準確性和訊息可信度沒有顯著影響,但資訊類型和內容類別對這些指標有明顯影響。AIGC標籤能幫助區分AI與人類生成的內容,且不會對用戶看法造成負面影響,顯示其在事實查核中的潛力。研究建議未來需針對不同資訊類型進行更深入的探討。 PubMed DOI

這段文字探討了在社交網絡上檢測政治宣傳的挑戰,特別是利用機器人和多帳號影響公眾意見的情況。作者強調,隨著大型語言模型和資訊過載的增加,識別這類宣傳變得更加困難。他們提出一種方法,透過分析不同數據集中的標籤和用戶提及的重複性來檢測操控行為。研究利用了16個數據集,結果顯示能有效區分政治與非政治討論,無論推文來源或語言如何。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI