原始文章

這項研究探討了人工神經網絡(ANNs)在沒有先前訓練的情況下進行抽象推理的潛力,並針對其依賴過去數據的問題進行分析。研究人員利用問題數據來優化簡單網絡的權重,並應用於視覺推理任務。結果顯示,該模型能有效解決問題,無需依賴過去範例。此外,研究還探討了ANNs解題與知識積累的關係,提出了一種新機制,說明這些網絡如何在推理任務中即時適應與學習。 PubMed DOI


站上相關主題文章列表

機器學習在社會扮演重要角色,推動技術進步如Alphago和ChatGPT,已整合到消費品如智慧手機和自駕車。儘管人工神經網路廣泛使用,但因模型配置和數據嘈雜,理解仍有挑戰。新數學框架將神經網路表現與特性聯繫,可用早期數據預測模型表現。框架引入神經容量指標,評估模型泛化能力,優於現有方法。 PubMed DOI

推理對智慧系統很重要。大型語言模型在抽象推理上表現不錯,但也有缺陷。人類推理受現實世界影響,當問題支持邏輯時,推理更可靠。語言模型和人類展現相似推理模式。研究顯示兩者在準確性和信心上相似,但在某些任務上有差異,如Wason選擇。了解這些可提供對人類認知和語言模型的洞察。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI

這項研究針對抽象與推理語料庫(ARC)提出新方法,旨在測試人工智慧的抽象推理能力。儘管已有許多努力,現有的神經網絡演算法在解決ARC任務上仍面臨挑戰,常需依賴複雜的手工規則。研究者調整了DreamCoder神經符號推理解決器,並引入感知抽象與推理語言(PeARL)來增強能力。他們還開發新方法讓大型語言模型(LLMs)能解決ARC任務,顯示出不同的解決方式。結果顯示,神經網絡方法仍不及手工解決方案,未來可透過理解人類策略來推進人工智慧發展。 PubMed DOI

這份摘要強調大型語言模型(LLMs)在預測實驗結果方面的潛力,特別是在神經科學領域。研究介紹了BrainBench,一個評估LLMs預測能力的基準測試。結果顯示,LLMs在預測上可超越人類專家,而專門模型BrainGPT的準確性更高。當LLMs表現出高度信心時,預測也相對可靠,顯示它們在協助人類發現過程中的潛在角色。這種方法論不僅適用於神經科學,還可能對其他知識密集型領域產生廣泛影響。 PubMed DOI

這項研究探討深度神經網絡(DNNs)在學習和泛化不同結構語言的表現,並與人類學習者進行比較。結果顯示,無論是大型語言模型還是遞迴神經網絡,當接觸到更具結構性的語言時,學習效果更佳。具體來說,DNNs在處理組合語言時,展現出更好的系統性泛化和模型間共識增加,且與人類學習模式更一致。這顯示DNNs也能從語言的組合特性中獲益,提升其作為理解人類語言學習模型的有效性。 PubMed DOI

大型推理模型如OpenAI的GPT系列和DeepSeek的R1,顯示了人工智慧在自然語言處理上的重大進展。這些模型能理解和生成類似人類的文本,應用範圍廣泛,從聊天機器人到內容創作。它們的力量來自於龐大的參數和訓練數據,但常被誤解為具有人類理解能力,實際上只是基於模式生成回應。此外,它們在上下文理解和常識推理上仍有局限,且表現依賴於訓練數據的質量。總之,應理性看待這些模型的潛力與限制。 PubMed DOI

這項研究提出用輔助交叉注意力網路(ACAN)來幫AI代理人挑選最相關的記憶,並首次用大型語言模型(LLM)來訓練這套記憶檢索系統。這種做法能讓代理人在模擬環境中表現更穩定、反應更靈活,對提升生成式AI代理人的記憶管理和行為表現很有幫助。 PubMed DOI

近期有研究質疑大型語言模型(LLMs)是否真的會類比推理,還是只是在模仿資料。雖然有些測試顯示LLMs表現不佳,但本研究發現,只要讓LLMs能寫和執行程式碼,即使在全新題型上也能舉一反三,證明它們真的有類比推理能力,不只是死背或模仿。 PubMed DOI