原始文章

這項研究強調了在科學發現中傳遞不確定性所面臨的挑戰。雖然透明度很重要,但研究顯示不確定性的訊息在社交媒體上不易被分享,實驗中效果也不佳。第一項研究分析了超過200萬條Twitter訊息,發現不確定性高的訊息分享數較少。第二項實驗確認了這一趨勢,參與者接觸不同不確定性水平的訊息。這些結果顯示,不確定性雖然是科學傳播的關鍵,但可能會影響公眾對科學資訊的參與,對科學家和傳播者的研究呈現方式提出了重要考量。 PubMed DOI


站上相關主題文章列表

科學記者在傳達科學資訊給大眾扮演重要角色,但面臨媒體變革及人工智慧挑戰。研究發現歐洲新聞對人工智慧報導有一致標準。人工智慧可提升新聞效率與可讀性,但也引發誠信及資金問題。記者努力維持質量,建議深入研究科學與媒體關係。 PubMed DOI

LLMs在社交網絡中可能造假,影響社會。為了解決問題,提出一方法模擬和量化LLMs散播虛假資訊情況。考慮個人行為、網絡結構和社群關係等因素。透過真實數據和不同情境評估,協助制定對抗LLMs散播虛假資訊策略。 PubMed DOI

這篇文章探討生成式人工智慧如何改善科學溝通及公眾對科學的理解。研究發現,AI生成的通俗摘要比傳統科學摘要更簡單,且能提升公眾對科學家的正面看法,雖然他們看起來不那麼聰明。參與者在閱讀簡單的AI摘要後,對科學寫作的理解也更佳,能更有效地總結論文內容。總之,AI透過簡化語言,能增強科學溝通,促進科學知識的普及。 PubMed DOI

在COVID-19疫情期間,mRNA疫苗的發展是疫苗技術的一大進步,但公眾對接種的猶豫引發了對未來mRNA醫療創新的擔憂。從2022年6月到2023年5月,我們進行了社交聆聽分析,發現對mRNA疫苗的安全性和有效性普遍存在負面情緒,且信心缺失。討論多集中在副作用、謠言和錯誤資訊上。這顯示出需要針對性的溝通策略,以提升公眾對醫療的接受度和信任,增強社會面對未來健康危機的韌性。 PubMed DOI

這項研究探討大型語言模型(LLM)在事實查核方面對政治新聞標題的影響。雖然該模型在識別虛假標題的準確率高達90%,但並未顯著提升參與者的辨識能力或分享準確新聞的意圖。相對而言,人類生成的查核更有效。此外,AI查核可能導致對真實標題的信念下降,對虛假標題的信念上升。總之,雖然AI能協助查核,但錯誤標記也可能帶來風險,需謹慎應用並制定相關政策。 PubMed DOI

這項研究探討生成式人工智慧(AI)標籤對用戶對內容準確性、可信度和分享意圖的影響,特別是在錯誤資訊的情境下。研究包含957名參與者,結果顯示AIGC標籤對感知準確性和訊息可信度沒有顯著影響,但資訊類型和內容類別對這些指標有明顯影響。AIGC標籤能幫助區分AI與人類生成的內容,且不會對用戶看法造成負面影響,顯示其在事實查核中的潛力。研究建議未來需針對不同資訊類型進行更深入的探討。 PubMed DOI

這項研究探討了健康錯誤資訊的影響,以及在COVID-19疫情期間社交媒體上更正貼文的有效性。研究分析了三年內來自事實查核機構和健康機構的更正貼文,重點在於不同屬性如何影響用戶互動。 主要發現包括: 1. 用戶互動趨勢顯示疫情期間的互動模式。 2. 貼文屬性(如風險、意識、數字等)對互動有顯著影響,強調意識和事實的貼文更受歡迎。 3. 用戶評論分為認知型和情感型,某些偏見評論對分享有負面影響。 研究強調有效傳遞錯誤資訊意識和事實內容能提升用戶互動,為改善公共健康溝通提供策略建議。 PubMed DOI

美國公共衛生協會年會的研究發現,近年來氣候變遷相關議題在公共衛生討論中不僅數量減少,主題也變得單一,主要聚焦在健康影響,像是熱傷害和心理健康,較少討論政策或人力資源。這顯示公共衛生領域需要加強能力,並更積極把氣候變遷納入核心議題,重視公平性。 PubMed DOI

這篇研究分析超過11萬則微博貼文,發現福島核廢水事件爆發後,網友關注度在前兩週大增,雖然憤怒慢慢減弱,但恐懼情緒還是最強。沿海地區因為離日本近、吃海鮮多,討論特別熱烈,但風險感受沒明顯地區差異。高學歷和常吃海鮮的人討論也較多,經濟條件影響不大。建議風險溝通要配合時機、地點和情緒調整,並考慮中國的社會文化背景。 PubMed DOI

研究分析10萬多則Reddit癌症貼文,發現約19%有醫療不信任,主要針對醫護人員。原因包括病患覺得被忽略、照護不專業和溝通不良,這些貼文常帶有焦慮或沮喪情緒。加強傾聽、提升照護品質和溝通,有助改善癌症醫療信任。 PubMed DOI