原始文章

這項研究探討了人工神經網絡(ANNs)在沒有先前訓練的情況下進行抽象推理的潛力,並針對其依賴過去數據的問題進行分析。研究人員利用問題數據來優化簡單網絡的權重,並應用於視覺推理任務。結果顯示,該模型能有效解決問題,無需依賴過去範例。此外,研究還探討了ANNs解題與知識積累的關係,提出了一種新機制,說明這些網絡如何在推理任務中即時適應與學習。 PubMed DOI


站上相關主題文章列表

神經網路經過預先訓練後微調,可以像人一樣解數學問題、解釋答案並出題。使用少量樣本學習和OpenAI的Codex transformer,在解決課程問題上達到81%的自動準確率。數據集包含麻省理工和哥倫比亞大學的數學問題,以及各種高級數學主題的MATH數據。這種方法在解決大學級問題上優於GPT-3,顯著提高了自動解決準確性。透過評估,展示了自動解決、解釋和出題大學級數學問題的能力,是高等教育的一大進展。 PubMed DOI

這項研究比較了人類推理與一個大型語言模型(GPT-3)在類比任務上的表現,發現GPT-3在抽象模式歸納方面表現出色,有時甚至超越了人類。研究結果顯示,像GPT-3這樣的模型已經發展出解決類比問題的能力,而無需直接訓練。 PubMed DOI

歸納能力對智慧至關重要,但現有模型僅適用於簡單問題。結合大型語言模型與認知心理學理論,有助於更深入理解人類的歸納能力。研究顯示這種整合方法有潛力複製人類對各種歸納論證的反應。結果凸顯結合心理學理論與人工智慧方法,能有效模擬複雜的人類認知。 PubMed DOI

研究人員測試人類推理和決策,發現大型語言模型展現出人類直覺思維和錯誤特徵。ChatGPT-3.5和4表現準確,避免常見陷阱。模型使用上下文進行推理,類似人們使用記事本思考,即使沒有支持仍保持準確。研究顯示,心理學方法可揭示大型語言模型能力新見解。 PubMed DOI

機器學習在社會扮演重要角色,推動技術進步如Alphago和ChatGPT,已整合到消費品如智慧手機和自駕車。儘管人工神經網路廣泛使用,但因模型配置和數據嘈雜,理解仍有挑戰。新數學框架將神經網路表現與特性聯繫,可用早期數據預測模型表現。框架引入神經容量指標,評估模型泛化能力,優於現有方法。 PubMed DOI

推理對智慧系統很重要。大型語言模型在抽象推理上表現不錯,但也有缺陷。人類推理受現實世界影響,當問題支持邏輯時,推理更可靠。語言模型和人類展現相似推理模式。研究顯示兩者在準確性和信心上相似,但在某些任務上有差異,如Wason選擇。了解這些可提供對人類認知和語言模型的洞察。 PubMed DOI

這篇論文探討大型語言模型(LLMs)的理性推理能力,評估它們在認知心理學任務中的表現。研究發現,LLMs展現出與人類相似的非理性,但其非理性特徵與人類偏見不同。當LLMs給出錯誤答案時,這些錯誤不符合典型的人類偏見,顯示出獨特的非理性。此外,這些模型的回應顯示出顯著的不一致性,進一步增添了非理性的層面。論文也提出了評估和比較LLMs理性推理能力的方法論貢獻。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI

這項研究針對抽象與推理語料庫(ARC)提出新方法,旨在測試人工智慧的抽象推理能力。儘管已有許多努力,現有的神經網絡演算法在解決ARC任務上仍面臨挑戰,常需依賴複雜的手工規則。研究者調整了DreamCoder神經符號推理解決器,並引入感知抽象與推理語言(PeARL)來增強能力。他們還開發新方法讓大型語言模型(LLMs)能解決ARC任務,顯示出不同的解決方式。結果顯示,神經網絡方法仍不及手工解決方案,未來可透過理解人類策略來推進人工智慧發展。 PubMed DOI