原始文章

這項研究探討符號系統,特別是語言,如何透過個體發展和歷史演變而形成。提出的集體預測編碼(CPC)假說,強調身體互動與社會互動在內部表徵和意義分享中的關聯。研究基於預測編碼,並借鑒計算模型,如概率生成模型和語言遊戲。CPC假說與自由能原則相連,暗示符號的出現與最小化自由能的社會原則一致。文章回顧相關研究,並探討未來的挑戰及跨學科研究機會。 PubMed DOI


站上相關主題文章列表

學者一直在爭論語言是否僅透過語言輸入就能學會。近來大型語言模型(LLMs)的進步提供了一個希望的研究途徑。雖然LLMs有限制,但它們顯示出類似人類語法的語言可以在沒有預先存在的語法下被習得,顯示統計學習在語言習得中扮演重要角色。LLMs為認知科學家提供了計算模型,讓他們探索人類語言習得和使用的複雜性。 PubMed DOI

文章討論了大型語言模型(LLMs)在人類語言理解上的潛力,強調應該注重實證研究,而非僅著眼於語言任務表現。文章反駁了一些反對LLMs作為人類語言模型的觀點,並指出最新的實證研究挑戰了這些看法。結論認為現在還為時過早地否定LLMs對於人類語言理解的洞察力。 PubMed DOI

歸納能力對智慧至關重要,但現有模型僅適用於簡單問題。結合大型語言模型與認知心理學理論,有助於更深入理解人類的歸納能力。研究顯示這種整合方法有潛力複製人類對各種歸納論證的反應。結果凸顯結合心理學理論與人工智慧方法,能有效模擬複雜的人類認知。 PubMed DOI

大型語言模型(LLMs)在推理任務上表現優秀,挑戰傳統模型。雖然有限制,但透過提供範例和擴展網絡等方法,可以增強性能,類似人類思考。分析LLM的錯誤可洞察人類偏見。LLMs帶來希望,從聯想主義角度研究智能和推理,透過認知心理學工具更深入了解人類思維。 PubMed DOI

這篇文章討論了大腦如何作為與世界互動的生成模型,類似於人工智慧的進步。不同於人工智慧,大腦的模型是根據身體和世界來定位,積極捕捉和控制感官反饋。這種積極參與允許真正理解並通過互動不斷測試模型,這對於人工智慧的發展至關重要。 PubMed DOI

這封信討論了大型語言模型(LLMs)與認知科學的關係,強調了資訊理論和統計語言模型對理解人類溝通的重要性。它探討了社會語言學和語言人類學如何豐富了這個框架,提出像是元語用功能和指示性這樣的概念可以增進我們對溝通的理解。作者建議,在大型語言模型和人工智慧時代,跨學科對話在計算語言學、社會語言學、語言人類學以及認知和社會心理學之間至關重要,以促進我們對人類溝通和人類-人工智慧互動的理解。 PubMed DOI

大型語言模型在各種任務中表現優異,與大腦計算的關聯存在爭議。一個提出平均場學習模型的研究指出,大多數連接變得確定性,而輸出連接更具變異性。隨著訓練數據增加,網絡性能提升,提供有關大腦計算和通用智能的見解。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI

集體智慧在群體、組織和社會中非常重要,因為它能促進協調與分散的認知,超越個人能力,甚至專家的能力。資訊科技透過線上預測市場、結構化討論論壇和眾包平台來增強這種智慧。大型語言模型的出現改變了資訊的聚合和傳遞方式,帶來了新的機會與挑戰。我們需要探討這些模型的潛在好處、風險及相關政策,並深入研究它們如何影響我們解決複雜問題的能力。 PubMed DOI