原始文章

這項研究探討了資訊搜尋平台(如傳統搜尋引擎和AI工具)如何因「狹隘搜尋效應」影響使用者更新信念。這種效應使得使用者的先前信念影響搜尋詞,導致結果偏頗且有限。研究進行了21個實驗,涵蓋健康、金融和政治等領域,顯示這現象普遍存在。結果顯示,使用者的信念影響搜尋行為,限制信念更新。雖然促使使用者修正偏見的努力多數無效,但調整演算法以提供更廣泛的搜尋結果能促進信念更新,強調設計搜尋演算法的重要性。 PubMed DOI


站上相關主題文章列表

這項研究調查了像 ChatGPT 這類大型語言模型在科學詢問中的使用情況及人們的看法,基於2023年7、8月來自七國的4,320名受訪者的數據。儘管這些技術較新,許多使用者仍表示會利用 ChatGPT 獲取科學資訊。研究比較了使用者對 ChatGPT 和傳統資訊來源(如 Google 搜尋)的看法,以及他們對生成式人工智慧的知識和信任程度,並與不使用者及不同目的的使用者進行比較,提供了對 GenAI 早期採用及其對公眾理解科學議題影響的見解。 PubMed DOI

這項研究探討大型語言模型(LLMs)如ChatGPT與傳統搜尋引擎如Google在獲取健康資訊的使用情況。調查顯示,95.6%的人使用搜尋引擎查詢健康問題,但只有32.6%的人使用LLMs。男性、黑人和亞裔更常使用LLMs,且健康狀況較好和技術熟練度高的人也較常使用。 後續調查中,大多數LLM使用者仍偏好搜尋引擎,認為LLMs的實用性不如搜尋引擎,但對其負面感受較少,認為LLMs更具人性化。總體來看,搜尋引擎仍是主要工具,但LLMs的正面評價顯示其未來增長潛力。 PubMed DOI

這項研究指出社交媒體對抑鬱症患者的影響,特別是他們與扭曲內容的互動。研究中838名參與者顯示,抑鬱症狀較重的人更容易接觸這類內容。研究還提出一個簡單的介入措施,能幫助人們提高意識,減少與扭曲內容的互動,無論抑鬱程度如何。這顯示針對性的意識訓練能有效減輕社交媒體對抑鬱症患者的負面影響,並強調進一步研究社交媒體與心理健康關係的重要性。 PubMed DOI

這項研究探討使用者對大型語言模型(LLM)驅動的聊天機器人(如ChatGPT)提供的健康資訊的看法,與傳統線上資源相比。結果顯示,98%的參與者仍主要依賴搜尋引擎尋找健康資訊,只有21.2%使用聊天機器人。大多數人尋求健康狀況資訊,但對於用藥建議和自我診斷的需求較低。雖然LLM聊天機器人逐漸受到年輕族群的青睞,但使用者在遵循建議時仍較為謹慎。研究強調提高準確性和透明度對於健康資訊的安全性至關重要。 PubMed DOI

這項研究探討使用者如何決定信任並採用生成式人工智慧,特別針對DeepSeek這個大型語言模型在醫療領域的應用。研究發現,大多數受訪者對醫療提供者使用AI感到舒適,前提是結果經過驗證。信任被視為關鍵因素,使用便利性和感知有用性會影響使用意圖,而風險感知則有負面影響。研究建議,當DeepSeek易用且值得信賴時,使用者更可能採用,並呼籲進一步探討隱私和文化差異等因素。 PubMed DOI

生成式AI能協助政治說服研究,突破資料限制。實驗發現,AI產生的說服訊息能有效改變受試者態度和投票意向,但個人化或互動式訊息並未特別更有效。雖然AI能影響意見,但對提升對立陣營包容度或減少敵意幫助有限,顯示改變想法不等於減少社會極化。 PubMed DOI

這份研究發現,使用者是否信任 DeepSeek 這類 AI 醫療平台,會直接影響他們的採用意願。操作簡單、實用性高會增加信任感,但風險感知則會降低意願。多數人願意接受 AI 協助,只要醫師能把關。研究也提醒,信任和風險的影響有「飽和點」,不會無限放大。未來還要考慮隱私、文化和長期使用經驗。 PubMed DOI

這項研究用微調過的大型語言模型,把線上辯論中的各種信念轉成神經嵌入,來分析信念間的關聯。這方法能看出信念極化、連結模式,還能預測個人未來可能的信念,並用信念距離估算認知失調。結果顯示,結合語言模型和線上資料,有助於了解人類信念的形成和互動原則。 PubMed DOI

這項研究比較Google、Bing、ChatGPT和Gemini的健康資訊,發現Google的資訊最可靠、品質最好,ChatGPT和Gemini在正確性和透明度較弱。四個平台的內容閱讀難度都偏高,超過公衛建議。結果顯示AI健康資訊需要更嚴格監督,也要加強民眾的資訊判讀能力。 PubMed DOI

這項研究發現,在網路政治辯論中,若多加理由說明、用友善語氣、展現妥協意願,都能明顯提升討論品質和開放心態,讓高品質討論機率增加1.6到2倍。不過,這些做法並不會改變對方的政治立場,但有助於促進更健康的民主互動。 PubMed DOI