原始文章

這項研究針對抽象與推理語料庫(ARC)提出新方法,旨在測試人工智慧的抽象推理能力。儘管已有許多努力,現有的神經網絡演算法在解決ARC任務上仍面臨挑戰,常需依賴複雜的手工規則。研究者調整了DreamCoder神經符號推理解決器,並引入感知抽象與推理語言(PeARL)來增強能力。他們還開發新方法讓大型語言模型(LLMs)能解決ARC任務,顯示出不同的解決方式。結果顯示,神經網絡方法仍不及手工解決方案,未來可透過理解人類策略來推進人工智慧發展。 PubMed DOI


站上相關主題文章列表

神經網路經過預先訓練後微調,可以像人一樣解數學問題、解釋答案並出題。使用少量樣本學習和OpenAI的Codex transformer,在解決課程問題上達到81%的自動準確率。數據集包含麻省理工和哥倫比亞大學的數學問題,以及各種高級數學主題的MATH數據。這種方法在解決大學級問題上優於GPT-3,顯著提高了自動解決準確性。透過評估,展示了自動解決、解釋和出題大學級數學問題的能力,是高等教育的一大進展。 PubMed DOI

這項研究比較了人類推理與一個大型語言模型(GPT-3)在類比任務上的表現,發現GPT-3在抽象模式歸納方面表現出色,有時甚至超越了人類。研究結果顯示,像GPT-3這樣的模型已經發展出解決類比問題的能力,而無需直接訓練。 PubMed DOI

歸納能力對智慧至關重要,但現有模型僅適用於簡單問題。結合大型語言模型與認知心理學理論,有助於更深入理解人類的歸納能力。研究顯示這種整合方法有潛力複製人類對各種歸納論證的反應。結果凸顯結合心理學理論與人工智慧方法,能有效模擬複雜的人類認知。 PubMed DOI

大型語言模型(LLMs)在理解語言方面有進展,但在語言能力和認知方面看法不同。研究評估LLMs的形式語言能力和功能語言能力,人類神經科學顯示這兩種能力依賴不同神經機制。LLMs在形式能力表現優異,但在功能任務上表現不穩,可能需要額外調整或外部模組。為了達到人類般的語言使用,模型可能需掌握兩種能力,並提供專門機制。 PubMed DOI

Transformer神經網絡,特別是大型語言模型(LLMs),在材料分析、設計和製造上很有效。它們能處理各種數據,支持工程分析,像MechGPT在材料力學領域表現出理解能力。檢索增強的本體知識圖表等策略可提高生成性能,解決困難。這些方法在材料設計探索中有優勢,並提供見解。非線性取樣和基於代理的建模增強生成能力,改進內容生成和評估。例如,問答、代碼生成和自動生成力場開發。 PubMed DOI

推理對智慧系統很重要。大型語言模型在抽象推理上表現不錯,但也有缺陷。人類推理受現實世界影響,當問題支持邏輯時,推理更可靠。語言模型和人類展現相似推理模式。研究顯示兩者在準確性和信心上相似,但在某些任務上有差異,如Wason選擇。了解這些可提供對人類認知和語言模型的洞察。 PubMed DOI

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI

這項研究探討了人工神經網絡(ANNs)在沒有先前訓練的情況下進行抽象推理的潛力,並針對其依賴過去數據的問題進行分析。研究人員利用問題數據來優化簡單網絡的權重,並應用於視覺推理任務。結果顯示,該模型能有效解決問題,無需依賴過去範例。此外,研究還探討了ANNs解題與知識積累的關係,提出了一種新機制,說明這些網絡如何在推理任務中即時適應與學習。 PubMed DOI

「反轉詛咒」突顯了自回歸解碼器模型(如GPT)的限制,這些模型在推斷關係時常常遇到困難,例如從「A是B」推斷「B是A」。這引發了對它們在知識圖譜構建等任務中的有效性擔憂。相對而言,雙向模型如BERT則不會面臨這個問題。我們的研究進一步探討了演繹推理,發現雖然這兩種模型在處理兩個集合時表現良好,但在三個集合的運算上卻有困難。因此,選擇BERT或GPT應根據具體任務需求,利用各自的優勢。 PubMed DOI