原始文章

是的,人工智慧確實能增強國家支持的宣傳活動。最近的研究顯示,生成式人工智慧工具已被用於與國家相關的宣傳網站,像是俄羅斯的網站,提升了製造虛假資訊的能力。研究結果指出: 1. **產出增加**:這些媒體能產生更多虛假資訊,讓錯誤敘事更容易散播。 2. **內容多樣化**:使用人工智慧後,發表的內容量和範圍明顯增加,顯示出更廣泛的宣傳努力。 3. **說服力**:調查顯示,人工智慧撰寫的文章仍具說服力,質量未下降。 總之,生成式人工智慧工具已改變國家支持的宣傳活動,使虛假資訊的散播更有效。 PubMed DOI


站上相關主題文章列表

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

生成式人工智慧可提升個人創造力,但可能限制集體創新,因為內容相似。實驗顯示,對於缺乏創意的作者,使用AI點子有助提升創造力和寫作品質。然而,AI生成的故事相似度高,可能降低多樣性。這個困境凸顯個人創造力與集體創新的取捨。對支持創造力的研究者、政策者和從業者具啟發意義。 PubMed DOI

這篇文章探討生成式人工智慧如何改善科學溝通及公眾對科學的理解。研究發現,AI生成的通俗摘要比傳統科學摘要更簡單,且能提升公眾對科學家的正面看法,雖然他們看起來不那麼聰明。參與者在閱讀簡單的AI摘要後,對科學寫作的理解也更佳,能更有效地總結論文內容。總之,AI透過簡化語言,能增強科學溝通,促進科學知識的普及。 PubMed DOI

這項研究探討了生成式人工智慧的倫理影響,特別是如何根據使用者所採用的AI類型來分配功勞和責任。主要發現包括: 1. **功勞歸屬**:使用個性化大型語言模型的參與者,對其貢獻的認可較高,顯示個性化增強了貢獻感。 2. **責任歸屬**:對於有害輸出的責任分配,LLM類型影響不大,顯示負面結果的責任看法較一致。 3. **文化差異**:英國參與者更傾向於對使用LLM的人分配責任,顯示文化差異在AI使用認知上的影響。 這些結果對於AI的倫理指導、政策制定及技術發展具有重要意義。 PubMed DOI

這段文字探討了在社交網絡上檢測政治宣傳的挑戰,特別是利用機器人和多帳號影響公眾意見的情況。作者強調,隨著大型語言模型和資訊過載的增加,識別這類宣傳變得更加困難。他們提出一種方法,透過分析不同數據集中的標籤和用戶提及的重複性來檢測操控行為。研究利用了16個數據集,結果顯示能有效區分政治與非政治討論,無論推文來源或語言如何。 PubMed DOI

社交媒體影響者在 Instagram 和 TikTok 上推廣電子煙,常用吸引人的行銷手法,將電子煙與健康或娛樂連結,可能讓年輕人降低對風險的認知。研究人員分析了2021至2024年間102支微型影響者的影片,聚焦於大麻、娛樂、時尚和健康生活方式等主題。他們運用 OpenAI 的 GPT-4o 模型,準確率分別為:尼古丁電子煙87%、大麻電子煙96%、時尚99%、娛樂96%、健康生活方式98%。這顯示生成式 AI 能有效識別與電子煙相關的推廣內容,對煙草監管提供重要見解。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI

這項研究發現,當用禮貌語氣向大型語言模型提問時,比用不禮貌語氣更容易讓模型產生公共衛生相關的錯誤資訊。這顯示LLMs有被濫用來散播假消息的風險,因此AI發展時必須加強道德防護機制,避免被不當利用。 PubMed DOI

生成式AI能協助政治說服研究,突破資料限制。實驗發現,AI產生的說服訊息能有效改變受試者態度和投票意向,但個人化或互動式訊息並未特別更有效。雖然AI能影響意見,但對提升對立陣營包容度或減少敵意幫助有限,顯示改變想法不等於減少社會極化。 PubMed DOI

研究發現,GPT-4在辯論時若能根據個人資料客製化論點,有64%機率比人類更有說服力,能更有效改變他人看法。這顯示AI說服力很強,也提醒我們未來要注意如何管理這類技術。 PubMed DOI