原始文章

這項研究探討了陰謀論信念的持續性,並測試使用GPT-4 Turbo進行個性化對話是否能有效減少這些信念。研究涵蓋2,190名陰謀論信徒,結果顯示干預措施使信念減少約20%,且效果在兩個月內持續,對各種陰謀論都有影響。即使是信念強烈的人也能改變看法。這表明,面對有說服力的證據,許多持有陰謀論信念的個體能夠調整自己的觀點。 PubMed DOI


站上相關主題文章列表

ChatGPT是OpenAI開發的AI語言模型,可能改變資訊搜尋方式。雖有教育品質疑慮,但可能整合至網路搜尋。研究發現ChatGPT對抗COVID-19疫苗陰謀論,中立看待強制接種,並列出利弊。可用來對抗疫苗錯誤資訊,但不可取代世衛組織等可靠來源。 PubMed DOI

人工智慧(AI)改變我們處理資訊的方式,尤其在健康資訊充斥的時代。一項研究發現,人們難以區分AI模型GPT-3和真實用戶的推文,顯示AI可能傳播假消息。這凸顯了AI在傳播假消息方面的風險,需要加強健康資訊的宣傳。 PubMed DOI

新冠疫情全球衝擊深遠,造成許多人喪生且醫療資源吃緊。失業問題嚴重,經濟壓力大。各界人士積極抗疫,科學家研發有效疫苗。雖疫苗證實有效,但對接種仍有疑慮,受網路假訊息及名人影響。ChatGPT對疫苗誤解回應顯示AI潛力,可解疑慮促進接種。 PubMed DOI

研究發現ChatGPT對世界衛生組織疫苗迷思回應準確易懂,付費版表現更佳。人工智慧或許有助醫療保健,但需專家指導,否則或提供誤導。使用AI需注意質量,以獲取正確資訊,涉及道德問題。 PubMed DOI

政治討論對民主至關重要,但網路對話往往會造成分裂。學者和團體正在努力進行干預,以改善網路討論。一項研究顯示,使用人工智慧工具提供基於證據的建議,可以增進有爭議話題的網路對話,提升被認知的理解、改善對話品質、民主互惠和語氣,而不改變內容或政策態度。 PubMed DOI

一項研究發現,像GPT-3這樣的大型語言模型可以生成與外國宣傳者創建的內容相似的有說服力的宣傳。通過編輯輸入到GPT-3或精心挑選其輸出,可以進一步增強生成宣傳的說服力。這表明人工智慧可能被宣傳者用來輕鬆創建具有說服力的內容。 PubMed DOI

使用像ChatGPT這樣的大型語言模型,根據收件人的心理特徵製作個性化訊息,可以大幅提升訊息的影響力。研究發現,在1788名參與者中,由ChatGPT生成的個性化訊息在各個領域和心理特徵上比非個性化訊息更具說服力。這顯示了大型語言模型在自動化和擴展個性化說服方面的潛力,提高了效果和效率。這些發現對研究人員、從業者和一般大眾都具有重要意義。 PubMed DOI

充足睡眠對健康很重要,影響認知、幸福感和疾病預防。數位工具如ChatGPT提供個人化睡眠建議,但需注意可能有錯誤資訊。研究顯示ChatGPT能準確辨識睡眠迷思,與專家意見一致。ChatGPT以易懂方式糾正迷思,有助促進健康行為,與專家建議互補。 PubMed DOI

最新的語言模型進步了,可以用來做政治微目標定位,但對個人影響還不確定。一項研究發現,使用GPT-4生成的訊息有說服力,但微目標定位並沒有顯著增加說服力。這表示語言模型的優勢可能在於一般訊息的說服力,而非個人化訊息。研究人員已提供GPTarget2024數據集給未來研究使用。 PubMed DOI

疫情期間,科學錯誤資訊問題愈發嚴重,社交媒體的快速傳播加劇了疫苗懷疑,對公共健康造成風險。雖然已有努力對抗錯誤資訊,但有效解決方案仍難尋。最近《科學》雜誌的一項研究指出,人工智慧(AI)可能成為對抗錯誤資訊的有效工具,並能帶來持久改變。 PubMed DOI