原始文章

這項研究探討邏輯數學符號(LMS)處理的神經基礎,發現LMS能力可能源自基本的認知系統,特別是空間認知,而非語言處理。研究顯示,LMS與空間任務的腦部激活模式有顯著重疊,與語言處理的重疊則較少。層次聚類分析也顯示LMS任務在神經上與空間任務相似,暗示兩者有深層連結。這些結果支持空間認知是LMS處理基礎的觀點,並解釋大型語言模型在邏輯推理上的局限性,尤其是缺乏空間表徵的模型。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在理解語言方面有進展,但在語言能力和認知方面看法不同。研究評估LLMs的形式語言能力和功能語言能力,人類神經科學顯示這兩種能力依賴不同神經機制。LLMs在形式能力表現優異,但在功能任務上表現不穩,可能需要額外調整或外部模組。為了達到人類般的語言使用,模型可能需掌握兩種能力,並提供專門機制。 PubMed DOI

最新研究利用先進語言模型研究人腦處理語言方式。模型提升語言能力,但神經科學研究未跟上。研究者用不同大小模型觀察其捕捉大腦語言資訊能力,發現大模型預測神經活動較佳。研究指出,隨模型增大,最佳神經信號預測層轉移到較早層,顯示大腦處理語言有組織層次結構。 PubMed DOI

推理對智慧系統很重要。大型語言模型在抽象推理上表現不錯,但也有缺陷。人類推理受現實世界影響,當問題支持邏輯時,推理更可靠。語言模型和人類展現相似推理模式。研究顯示兩者在準確性和信心上相似,但在某些任務上有差異,如Wason選擇。了解這些可提供對人類認知和語言模型的洞察。 PubMed DOI

這篇論文探討大型語言模型(LLMs)的理性推理能力,評估它們在認知心理學任務中的表現。研究發現,LLMs展現出與人類相似的非理性,但其非理性特徵與人類偏見不同。當LLMs給出錯誤答案時,這些錯誤不符合典型的人類偏見,顯示出獨特的非理性。此外,這些模型的回應顯示出顯著的不一致性,進一步增添了非理性的層面。論文也提出了評估和比較LLMs理性推理能力的方法論貢獻。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI

這項研究針對大型語言模型(LLMs),如GPT-3.5、GPT-4、Claude2和Llama2的智力進行調查,特別關注前額葉功能。結果顯示,雖然GPT-3.5在某些領域表現不錯,但在計畫和理解意圖上不太穩定,Claude2也有類似情況。相對之下,Llama2在大部分測試中表現不佳。值得一提的是,GPT-4在所有任務中表現良好,顯示出更接近人類的認知能力。研究證實,傳統神經心理測試能有效評估LLM的表現。 PubMed DOI

一項研究評估了十一個大型語言模型(LLMs),使用40個專門的錯誤信念任務,這些任務對於評估人類的心智理論(ToM)非常重要。結果顯示,較舊的模型無法解決任何任務,而GPT-3-davinci-003和ChatGPT-3.5-turbo僅解決了20%。相比之下,ChatGPT-4的成功率達到75%,與6歲兒童的表現相當。這顯示出心智理論的能力可能是LLMs語言能力增強的副產品,預示著更先進的人工智慧的崛起,帶來正負面影響。 PubMed DOI

這項研究探討語言與情感理解的關聯,利用大型語言模型(LLMs)來分析語言如何影響AI在新情境中推斷情感。研究人員找出了十四個與人類情感相關的獨特屬性,並發現這些屬性由特定神經元群體表徵。透過操控這些神經元,研究證明情感知識對生成情感推論至關重要。結果顯示,LLMs能透過語言學習情感,而不需依賴感官或運動經驗,語言知識對情感推論非常重要。 PubMed DOI