原始文章

認知科學家一直在研究人類概念的表徵方式,尋找能有效計算相似性、特徵、類別等屬性的方法。這種表徵應能促進理論創建和知識發展。近來,基於向量的表徵成為熱門選擇,特別是在大型語言模型的進展下。這些向量能處理複雜屬性,如組合性和結構關係,顯示出它們在神經架構中可能有效編碼類似人類的概念理解。 PubMed DOI


站上相關主題文章列表

在人工智慧研究界,有一場辯論是關於大型預訓練語言模型是否真正像人類一樣理解語言及其背景。討論了支持和反對這種理解的觀點,以及對智能科學的更廣泛問題。作者建議可以發展一個更全面的智能科學,來探索不同理解模式、它們的能力,以及各種認知形式的整合。 PubMed DOI

文章討論了大型語言模型(LLMs)在人類語言理解上的潛力,強調應該注重實證研究,而非僅著眼於語言任務表現。文章反駁了一些反對LLMs作為人類語言模型的觀點,並指出最新的實證研究挑戰了這些看法。結論認為現在還為時過早地否定LLMs對於人類語言理解的洞察力。 PubMed DOI

LLM與意識無直接關聯,因為它們缺乏生物感官經驗和相應神經系統。意識是哺乳動物丘腦皮質系統的產物,而LLM無法模擬這些生物演化過程。生物靠複雜過程維持生存和主動性,而這些過程與意識緊密相關。 PubMed DOI

大型語言模型(LLMs)在推理任務上表現優秀,挑戰傳統模型。雖然有限制,但透過提供範例和擴展網絡等方法,可以增強性能,類似人類思考。分析LLM的錯誤可洞察人類偏見。LLMs帶來希望,從聯想主義角度研究智能和推理,透過認知心理學工具更深入了解人類思維。 PubMed DOI

研究發現不同語言在自然、顏色、親屬等領域的意義有變異。大型語言模型用來分析此變異,發現語義領域內意義較一致,跨領域變異較大。具體意義較抽象意義變化小,受地理、環境、文化影響。母語影響語義空間,影響語言感知。對語言教育、跨文化交流、翻譯重要,因意義以獨特方式連結不同語言。 PubMed DOI

意識的計算意義是重要研究領域,探討意識與計算能力的關係,如透過算法或複雜性分析。意識被定義為主觀經驗,具有感知特性如品質和自我意識。ChatGPT等大型語言模型的發展引發了對人類意識處理的討論。生物系統展現智能和意識聯繫,但也有意識無智能、AI系統相反情況。意識與智能可能有分離。綜述強調意識獨特認知領域,如注意力、決策、感知整合。討論感知、語言任務中意識與無意識處理區別。提出意識至高概念,識別意識特定計算,類似量子至高。對AI對齊相關性探討,AI與人類計算需對齊。 PubMed DOI

推理對智慧系統很重要。大型語言模型在抽象推理上表現不錯,但也有缺陷。人類推理受現實世界影響,當問題支持邏輯時,推理更可靠。語言模型和人類展現相似推理模式。研究顯示兩者在準確性和信心上相似,但在某些任務上有差異,如Wason選擇。了解這些可提供對人類認知和語言模型的洞察。 PubMed DOI

這段文字探討建立理論框架以理解智慧的重要性,無論是人工智慧還是生物智慧。作者認為良好的數學理論能預測物理現實,並隨時間修正。使用玩具模型作為隱喻,有助於簡化複雜系統的理解。文中列出創建智慧理論的八大挑戰,包括表徵學習、泛化能力、對抗穩健性等。總體來說,這強調自下而上的智慧建模方法,解決這些挑戰將有助於深化我們對智慧的理解。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI