原始文章

這篇文章從社會語言學的角度分析語言模型,認為語言模型其實代表了不同的語言變體。文章首先定義了社會語言學中的語言變體,然後探討這種理解如何解決語言模型面臨的五大挑戰:社會偏見、領域適應、對齊、語言變遷和規模。作者指出,提升語言模型的效能和社會影響力的關鍵在於精心設計訓練數據集,讓其準確反映特定的語言變體,並運用社會語言學的見解。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)從它們的訓練數據中學習模式,例如開放的互聯網,讓研究人員能夠探索人類溝通中存在的文化細微差異。 PubMed DOI

這封信討論了大型語言模型(LLMs)與認知科學的關係,強調了資訊理論和統計語言模型對理解人類溝通的重要性。它探討了社會語言學和語言人類學如何豐富了這個框架,提出像是元語用功能和指示性這樣的概念可以增進我們對溝通的理解。作者建議,在大型語言模型和人工智慧時代,跨學科對話在計算語言學、社會語言學、語言人類學以及認知和社會心理學之間至關重要,以促進我們對人類溝通和人類-人工智慧互動的理解。 PubMed DOI

大型語言模型的崛起導致了從網絡文本中創建預訓練數據集的增加。將這些數據集視為非正式檔案庫,研究人員分析它們對塑造模型行為以外的影響,突顯在數據選擇中的主觀價值取向決策。這種檔案館觀點為研究科技社會影響的研究人員提供了洞察,以應對創建此類數據集時的挑戰。 PubMed DOI

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI

集體智慧在群體、組織和社會中非常重要,因為它能促進協調與分散的認知,超越個人能力,甚至專家的能力。資訊科技透過線上預測市場、結構化討論論壇和眾包平台來增強這種智慧。大型語言模型的出現改變了資訊的聚合和傳遞方式,帶來了新的機會與挑戰。我們需要探討這些模型的潛在好處、風險及相關政策,並深入研究它們如何影響我們解決複雜問題的能力。 PubMed DOI

您的分析顯示人類撰寫的新聞與大型語言模型(LLMs)生成的內容有明顯差異。主要發現包括: 1. **語言變異性**:人類文本在句子長度和詞彙多樣性上更豐富,LLM則較一致。 2. **句法結構**:人類使用較短的成分和更優化的依賴距離。 3. **情感語調**:人類文本表達更強烈的負面情緒,LLM則較少快樂情感。 4. **毒性與客觀性**:LLM的毒性隨模型增大而增加,顯示更客觀的語言特徵。 5. **代名詞使用**:LLM使用的代名詞較多,反映敘事風格差異。 6. **偏見**:兩者均顯示性別歧視,LLM往往放大這種偏見。 7. **比較差異**:人類與LLM文本的差異更明顯。 總體而言,這些發現突顯了人類寫作與AI生成內容的獨特特徵。 PubMed DOI

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

這項研究探討大型語言模型(LLMs)中的社會身份偏見,發現這些人工智慧系統展現出與人類相似的偏見,例如對內群體的偏好和對外群體的敵意。研究人員透過句子完成的提示,發現大多數LLMs在控制實驗和真實對話中都顯示出這些偏見。不過,仔細篩選訓練數據和專門微調可以顯著減少這些偏見,強調在人工智慧開發中解決社會偏見的重要性,以創造更公平的系統,並理解人類與LLMs的互動影響。 PubMed DOI