原始文章

這項研究探討接觸大型語言模型(LLMs)對個體自我認知及他人認知的影響,特別是心智感知的角度。參與者在與LLMs互動前後,評估自己的行動能力和經驗能力。結果顯示,接觸LLMs後,參與者對自身能力的評價提高,並認為這些特質對人類不再獨特。這顯示擬人化LLMs可能增強個體對自我心智的看法,並減少這些特質被視為人類專有的感知,進而引發對擬人化影響的更深思考。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)是強大的預訓練模型,可微調應用在各種自然語言任務,減少單獨為每個任務建模的需求。像GPT-3和LaMDA這樣的模型經過少量啟動後可與人對話,但是否真正理解語言或展現智能存在爭議。從與LLMs的訪談中得出的結論變化顯示,對其智能的看法可能取決於訪問者的智商。這可能引發反向圖靈測試。隨著LLMs的進步,它們可能改變人機互動。將LLMs與感知運動裝置整合引發了對其實際能力的問題。提出了受大腦系統啟發的改進方案,以實現人工智能通用自主性。LLMs也可能提供有關大腦功能的見解。 PubMed DOI

人類能理解他人信念,但不確定是天生還是語言造就。研究者用 GPT-3 模型測試,發現它雖然暴露於語言,卻不如人類理解人物知識狀態。語言影響能力發展,但其他因素也重要。 PubMed DOI

大型語言模型(LLMs)可以被視為對人類如何處理語言的計算描述,但其解釋取決於這些模型被視為關於人類語言處理的假設。在這個情境中,(心理)語言學理論的角色至關重要,有助於理解人工和生物心靈之間的關係。 PubMed DOI

大型語言模型(LLMs)在推理任務上表現優秀,挑戰傳統模型。雖然有限制,但透過提供範例和擴展網絡等方法,可以增強性能,類似人類思考。分析LLM的錯誤可洞察人類偏見。LLMs帶來希望,從聯想主義角度研究智能和推理,透過認知心理學工具更深入了解人類思維。 PubMed DOI

大型語言模型(LLMs)在理解語言方面有進展,但在語言能力和認知方面看法不同。研究評估LLMs的形式語言能力和功能語言能力,人類神經科學顯示這兩種能力依賴不同神經機制。LLMs在形式能力表現優異,但在功能任務上表現不穩,可能需要額外調整或外部模組。為了達到人類般的語言使用,模型可能需掌握兩種能力,並提供專門機制。 PubMed DOI

科技進步帶來新挑戰,人工智慧是否有意識仍有爭議。調查顯示,大多數美國人對AI可能具有某種意識持開放態度,但個人差異影響看法。公眾和專家意見可能不同,對AI的法律和道德考量有潛在影響。 PubMed DOI

研究比較人類和大型語言模型(LLM)在心智理論任務上的表現,發現像GPT-4這樣的LLM在識別間接要求和虛假信念等任務上表現與或優於人類,但在偵測社交失言方面表現不佳。LLaMA2在社交失言偵測方面表現優於人類,但進一步分析顯示這是由於一種偏見。表現差異歸因於LLM採用保守方法,需要系統性測試才能準確比較人類和人工智能。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI