原始文章

是的,美國總統之間的語言差異確實明顯,表現在語言風格、語調和修辭策略上。研究指出,唐納德·川普的演講風格獨特,主要表現為: 1. **語言風格**:川普使用非正式且對抗性的語言,簡單直接,容易引起共鳴;而其他總統則較為正式。 2. **分裂性語言**:川普常用分裂性語言,與其他總統的和解語言形成對比。 3. **修辭策略**:他經常誇張和攻擊對手,這使他與前任總統區別開來。 這些差異在各種演講中都很明顯,顯示出川普的獨特性並非偶然,而是持續的溝通風格。 PubMed DOI


站上相關主題文章列表

研究發現GPT-3.5在模擬人類行為上有限制,容易出現「正確答案」效應。即使改變資料或答案,結果仍一致。有研究顯示GPT-3.5傾向右派價值觀。這顯示在社會科學中使用大型語言模型存在挑戰,也引發對未來由AI主導可能帶來的思想單一性的擔憂。 PubMed DOI

最新的語言模型進步了,可以用來做政治微目標定位,但對個人影響還不確定。一項研究發現,使用GPT-4生成的訊息有說服力,但微目標定位並沒有顯著增加說服力。這表示語言模型的優勢可能在於一般訊息的說服力,而非個人化訊息。研究人員已提供GPTarget2024數據集給未來研究使用。 PubMed DOI

研究探討大型語言模型如ChatGPT是否能從社群媒體貼文推斷人格特質,結果顯示模型可準確推斷大五人格特質,尤其對女性和年輕人更準確。這種能力或許讓心理評估更普及,但也引發隱私和監管疑慮。 PubMed DOI

您的分析指出大型語言模型(LLMs)中存在的政治偏見問題。透過對24個對話型LLM進行測試,發現它們在政治問題上主要偏向左派觀點。雖然五個基礎模型的表現不佳,但這也讓結果的可靠性受到質疑。此外,研究顯示LLMs可以透過有監督的微調受到特定政治取向影響,這對公共話語的塑造有重要意義。這些潛在的偏見可能影響社會認知與決策,因此在開發和使用LLMs時,必須仔細考量其政治影響。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在不同上下文中的價值表達穩定性,並分析了認知能力、知識和模型大小等因素。研究涵蓋21個來自六個家族的LLM,重點在於人際和個體層級的穩定性。主要發現包括:某些模型(如Mixtral和GPT-3.5)在價值表達上較為穩定,而模擬特定個性時,模型的穩定性會下降。研究建議未來需進一步探討LLMs如何模擬多樣化的人格,並發展更全面的評估方法。論文為理解LLMs的價值穩定性提供了基礎,並附上研究代碼。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

您的分析顯示人類撰寫的新聞與大型語言模型(LLMs)生成的內容有明顯差異。主要發現包括: 1. **語言變異性**:人類文本在句子長度和詞彙多樣性上更豐富,LLM則較一致。 2. **句法結構**:人類使用較短的成分和更優化的依賴距離。 3. **情感語調**:人類文本表達更強烈的負面情緒,LLM則較少快樂情感。 4. **毒性與客觀性**:LLM的毒性隨模型增大而增加,顯示更客觀的語言特徵。 5. **代名詞使用**:LLM使用的代名詞較多,反映敘事風格差異。 6. **偏見**:兩者均顯示性別歧視,LLM往往放大這種偏見。 7. **比較差異**:人類與LLM文本的差異更明顯。 總體而言,這些發現突顯了人類寫作與AI生成內容的獨特特徵。 PubMed DOI

研究顯示,ChatGPT-4在使用十項人格量表(TIPI)評估公共人物的人格特質上表現優異,相關係數高達0.76到0.87,顯示其評估結果與人類評審者高度一致。這可能歸因於其廣泛的訓練數據、對語言細微差別的理解、模式識別能力,以及缺乏偏見的反饋。這些發現顯示,ChatGPT-4在心理學、行銷和公共關係等領域具有潛在價值,並引發對AI在社會評估中可靠性的思考,顯示出AI在理解人類行為方面的進步與應用潛力。 PubMed DOI

這篇文章探討如何利用大型語言模型(LLMs)來分析和預測公民的政策偏好,特別是針對巴西2022年總統候選人的政府計畫。研究採用訓練-測試交叉驗證,結果顯示LLMs在預測個人政治選擇上表現優於傳統的投票假設,且在估算整體偏好時也更準確。這項研究顯示LLMs能捕捉複雜的政治細微差異,為未來的數據增強研究提供了新方向,並與參與式治理和數位創新主題相關聯。 PubMed DOI

這項研究探討了刻板印象中的代表性概念,特別針對ChatGPT和SBERT模型。研究強調代表性的重要性,指的是與社會類別相關的特定內容維度,如能力和溫暖。研究分析了美國社會中多種社會類別,發現方向和代表性是兩個不同的構念,影響模型的價值並與人類刻板印象相符。研究指出,在審核和去偏見語言模型時,需同時考慮這兩個方面,以避免忽略內容代表性相關的偏見,對人工智慧公平性和人類認知研究有重要影響。 PubMed DOI