原始文章

這個專案旨在改善使用者在Twitter上接觸到經過驗證的新聞,解決極化和錯誤資訊問題。研究持續兩週,參與者達28,457人,使用28個由GPT-2創建的機器人,針對非政治主題的推文回應,分享相關新聞連結,並鼓勵關注新聞機構。結果顯示,與機器人互動的使用者更可能關注新聞帳號,尤其是女性機器人的回應更受歡迎。不過,這些效果主要限於已對政治感興趣的使用者,顯示在社交媒體上促進新聞參與的挑戰。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)改變我們處理資訊的方式,尤其在健康資訊充斥的時代。一項研究發現,人們難以區分AI模型GPT-3和真實用戶的推文,顯示AI可能傳播假消息。這凸顯了AI在傳播假消息方面的風險,需要加強健康資訊的宣傳。 PubMed DOI

研究發現大型語言模型(LLMs)如ChatGPT-3在輸出中存在偏見,類似人類對某些內容的偏見。模型呈現出對性別刻板印象、社會性、負面、威脅相關和反直覺的偏見。這些結果顯示模型訓練數據可能包含這些內容,可能放大人們對吸引但不一定具信息性內容的偏好。 PubMed DOI

社群媒體對資訊傳播和公眾意見塑造很重要。研究分析了數百萬篇有關ChatGPT和COVID-19疫苗的帖子,探討線上平台如何影響大眾看法。研究使用主題分析和情感分析來了解不同平台和事件對線上討論的影響。結果顯示,COVID-19疫苗討論因為緊迫性而傳播速度快,而ChatGPT討論則發展較緩慢。 PubMed DOI

使用像ChatGPT這樣的大型語言模型,根據收件人的心理特徵製作個性化訊息,可以大幅提升訊息的影響力。研究發現,在1788名參與者中,由ChatGPT生成的個性化訊息在各個領域和心理特徵上比非個性化訊息更具說服力。這顯示了大型語言模型在自動化和擴展個性化說服方面的潛力,提高了效果和效率。這些發現對研究人員、從業者和一般大眾都具有重要意義。 PubMed DOI

LLMs透過AIGC改變生活,但需了解其限制。研究發現ChatGPT等LLM生成的內容存在性別、種族偏見,歧視女性、黑人。ChatGPT偏見最少,且能拒絕有偏見提示。 PubMed DOI

研究發現ChatGPT的更新和特性影響辦公室工作者的知識流程和滿意度,並提升口碑。ChatGPT的人性化特徵增加了功利價值和滿意度。年齡對口碑有正面影響,性別則無明顯影響。這研究有助於了解AI聊天機器人在辦公室中的作用。 PubMed DOI

社群媒體對生活有負面影響,解決方法有限。大型語言模型如ChatGPT可提供支持、監控使用,但需注意風險,如錯誤和隱私問題。謹慎使用這些模型,才能有效處理問題性社群媒體使用,造福個人和社會。 PubMed DOI

最新的語言模型進步了,可以用來做政治微目標定位,但對個人影響還不確定。一項研究發現,使用GPT-4生成的訊息有說服力,但微目標定位並沒有顯著增加說服力。這表示語言模型的優勢可能在於一般訊息的說服力,而非個人化訊息。研究人員已提供GPTarget2024數據集給未來研究使用。 PubMed DOI

您的分析指出大型語言模型(LLMs)中存在的政治偏見問題。透過對24個對話型LLM進行測試,發現它們在政治問題上主要偏向左派觀點。雖然五個基礎模型的表現不佳,但這也讓結果的可靠性受到質疑。此外,研究顯示LLMs可以透過有監督的微調受到特定政治取向影響,這對公共話語的塑造有重要意義。這些潛在的偏見可能影響社會認知與決策,因此在開發和使用LLMs時,必須仔細考量其政治影響。 PubMed DOI

這項研究探討了陰謀論信念的持續性,並測試使用GPT-4 Turbo進行個性化對話是否能有效減少這些信念。研究涵蓋2,190名陰謀論信徒,結果顯示干預措施使信念減少約20%,且效果在兩個月內持續,對各種陰謀論都有影響。即使是信念強烈的人也能改變看法。這表明,面對有說服力的證據,許多持有陰謀論信念的個體能夠調整自己的觀點。 PubMed DOI