原始文章

是的,美國總統之間的語言差異確實明顯,表現在語言風格、語調和修辭策略上。研究指出,唐納德·川普的演講風格獨特,主要表現為: 1. **語言風格**:川普使用非正式且對抗性的語言,簡單直接,容易引起共鳴;而其他總統則較為正式。 2. **分裂性語言**:川普常用分裂性語言,與其他總統的和解語言形成對比。 3. **修辭策略**:他經常誇張和攻擊對手,這使他與前任總統區別開來。 這些差異在各種演講中都很明顯,顯示出川普的獨特性並非偶然,而是持續的溝通風格。 PubMed DOI


站上相關主題文章列表

研究發現GPT-3.5在模擬人類行為上有限制,容易出現「正確答案」效應。即使改變資料或答案,結果仍一致。有研究顯示GPT-3.5傾向右派價值觀。這顯示在社會科學中使用大型語言模型存在挑戰,也引發對未來由AI主導可能帶來的思想單一性的擔憂。 PubMed DOI

最新的語言模型進步了,可以用來做政治微目標定位,但對個人影響還不確定。一項研究發現,使用GPT-4生成的訊息有說服力,但微目標定位並沒有顯著增加說服力。這表示語言模型的優勢可能在於一般訊息的說服力,而非個人化訊息。研究人員已提供GPTarget2024數據集給未來研究使用。 PubMed DOI

您的分析指出大型語言模型(LLMs)中存在的政治偏見問題。透過對24個對話型LLM進行測試,發現它們在政治問題上主要偏向左派觀點。雖然五個基礎模型的表現不佳,但這也讓結果的可靠性受到質疑。此外,研究顯示LLMs可以透過有監督的微調受到特定政治取向影響,這對公共話語的塑造有重要意義。這些潛在的偏見可能影響社會認知與決策,因此在開發和使用LLMs時,必須仔細考量其政治影響。 PubMed DOI

您的分析顯示人類撰寫的新聞與大型語言模型(LLMs)生成的內容有明顯差異。主要發現包括: 1. **語言變異性**:人類文本在句子長度和詞彙多樣性上更豐富,LLM則較一致。 2. **句法結構**:人類使用較短的成分和更優化的依賴距離。 3. **情感語調**:人類文本表達更強烈的負面情緒,LLM則較少快樂情感。 4. **毒性與客觀性**:LLM的毒性隨模型增大而增加,顯示更客觀的語言特徵。 5. **代名詞使用**:LLM使用的代名詞較多,反映敘事風格差異。 6. **偏見**:兩者均顯示性別歧視,LLM往往放大這種偏見。 7. **比較差異**:人類與LLM文本的差異更明顯。 總體而言,這些發現突顯了人類寫作與AI生成內容的獨特特徵。 PubMed DOI

研究顯示,ChatGPT-4在使用十項人格量表(TIPI)評估公共人物的人格特質上表現優異,相關係數高達0.76到0.87,顯示其評估結果與人類評審者高度一致。這可能歸因於其廣泛的訓練數據、對語言細微差別的理解、模式識別能力,以及缺乏偏見的反饋。這些發現顯示,ChatGPT-4在心理學、行銷和公共關係等領域具有潛在價值,並引發對AI在社會評估中可靠性的思考,顯示出AI在理解人類行為方面的進步與應用潛力。 PubMed DOI

這篇文章探討如何利用大型語言模型(LLMs)來分析和預測公民的政策偏好,特別是針對巴西2022年總統候選人的政府計畫。研究採用訓練-測試交叉驗證,結果顯示LLMs在預測個人政治選擇上表現優於傳統的投票假設,且在估算整體偏好時也更準確。這項研究顯示LLMs能捕捉複雜的政治細微差異,為未來的數據增強研究提供了新方向,並與參與式治理和數位創新主題相關聯。 PubMed DOI

這項研究探討了「一般你」這種語言工具對溝通說服力的影響。分析大型線上辯論數據後發現,使用一般你(如「你贏有時,輸有時」)能顯著提高說服他人改變觀點的機率,增加多達14%。這一效果在考慮多種因素後依然明顯,且比其他代名詞更有效。研究強調了區分特定用法和一般用法的重要性,並建議使用一般你能讓表達更具說服力。作者呼籲進一步研究以了解影響這些效果的因素。 PubMed DOI

這項研究探討大型語言模型(LLMs)在生成政治訊息的說服力。研究人員使用24種不同大小的LLMs創造720條關於10個政治議題的訊息,並進行了接近26,000人的大規模調查來評估這些訊息的有效性。結果顯示,較大的模型在說服力上僅比小型模型稍強,且當考慮一致性和相關性等任務完成因素時,模型大小與說服力的關聯性會減弱。總之,僅增加LLMs的大小並不會顯著提升政治訊息的說服力,因為目前的模型已經表現得相當不錯。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI

這篇論文探討如何透過行為經濟學和人工智慧工具來增強社會溝通管理。研究分析社會溝通對公民行為的影響,並利用大型語言模型(LLMs)評估其有效性。基於卡尼曼的雙重過程理論,作者提出一個新系統,強調身份和社會規範對行為的影響。研究結果顯示,雖然原始訊息反響良好,但為促進社會轉型而修改的訊息可能導致負向變化,顯示修改時需謹慎,以確保與受眾的共鳴。 PubMed DOI