原始文章

這項研究用微調過的大型語言模型,把線上辯論中的各種信念轉成神經嵌入,來分析信念間的關聯。這方法能看出信念極化、連結模式,還能預測個人未來可能的信念,並用信念距離估算認知失調。結果顯示,結合語言模型和線上資料,有助於了解人類信念的形成和互動原則。 PubMed DOI


站上相關主題文章列表

這項研究探討如何利用大型語言模型(LLM)分析媒體對中國的態度,以香港的《東方日報》為例。研究強調分析媒體數據集對理解公眾意見的重要性,並指出傳統方法常忽略隱性態度。研究使用Martin和White的框架來分類態度,並運用Meta的開源Llama2(13b)模型進行分析,針對40,000條與中國相關的表達進行量化。結果顯示,LLM能有效識別顯性和隱性態度,準確率約80%,與人類編碼者相當。研究也討論了實施過程中的挑戰及其解決策略。 PubMed DOI

這篇論文探討大型語言模型(LLMs)如ChatGPT在編輯用戶生成內容(UGC)時的意外影響,特別是情感變化。分析氣候變遷推文後發現,LLMs重述的推文通常情感更中立,這可能扭曲依賴UGC的研究結果。為了應對這些偏見,論文提出兩種策略:一是使用預測模型識別原始情感,二是微調LLMs以更好地對齊人類情感。整體而言,研究強調了LLMs對UGC情感的影響,並提供減少偏見的實用方法,確保情感分析的可靠性。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

**重點摘要:** 大型語言模型(LLMs)可以參與以辯論為基礎的社會學實驗,通常比人類更能專注在主題上,進而提升團隊的生產力。不過,人類覺得LLM代理人比較不具說服力,也比較沒有自信,而且這些代理人在辯論時的行為和人類有明顯差異,因此很容易被辨識出是非人類參與者。 PubMed DOI

生成式AI能協助政治說服研究,突破資料限制。實驗發現,AI產生的說服訊息能有效改變受試者態度和投票意向,但個人化或互動式訊息並未特別更有效。雖然AI能影響意見,但對提升對立陣營包容度或減少敵意幫助有限,顯示改變想法不等於減少社會極化。 PubMed DOI

傳統質性研究難以驗證假說,因為文字資料不好量化。TESA這個新方法,利用大型語言模型把假說變成搜尋詞,抓出語意嵌入,再跟文本比對相似度。這樣就能用分數分布來做假說檢驗,解決過去方法偏誤和效率低的問題。 PubMed DOI

這份指南回顧並比較三種心理學構念的向量化方法:用單字清單、問卷和有標記範例。作者指出,若要分析不同文本類型,建議用單字清單;若文本和問卷內容接近,則用問卷;有大量標記資料時,則用標記範例。指南也提醒研究者注意嵌入模型的特性和潛在方法問題。 PubMed DOI

大型語言模型在視覺化任務中,特別有專家指引時,能模擬人類評分與推理,且在專家信心高時表現與人類相近。不過,LLMs在穩定性和偏誤上仍有限,適合用來快速原型評估,但還是無法完全取代傳統使用者研究。 PubMed DOI

大型語言模型能準確重現多數心理學實驗,效果有時甚至比真人還明顯。不過,遇到社會敏感議題或原研究沒發現效果時,模型容易高估結果。LLMs 適合做初步、快速研究,但遇到複雜或敏感議題,還是得靠真人參與才能更全面。 PubMed DOI

這項研究發現,在網路政治辯論中,若多加理由說明、用友善語氣、展現妥協意願,都能明顯提升討論品質和開放心態,讓高品質討論機率增加1.6到2倍。不過,這些做法並不會改變對方的政治立場,但有助於促進更健康的民主互動。 PubMed DOI