原始文章

這項研究針對抽象與推理語料庫(ARC)提出新方法,旨在測試人工智慧的抽象推理能力。儘管已有許多努力,現有的神經網絡演算法在解決ARC任務上仍面臨挑戰,常需依賴複雜的手工規則。研究者調整了DreamCoder神經符號推理解決器,並引入感知抽象與推理語言(PeARL)來增強能力。他們還開發新方法讓大型語言模型(LLMs)能解決ARC任務,顯示出不同的解決方式。結果顯示,神經網絡方法仍不及手工解決方案,未來可透過理解人類策略來推進人工智慧發展。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在理解語言方面有進展,但在語言能力和認知方面看法不同。研究評估LLMs的形式語言能力和功能語言能力,人類神經科學顯示這兩種能力依賴不同神經機制。LLMs在形式能力表現優異,但在功能任務上表現不穩,可能需要額外調整或外部模組。為了達到人類般的語言使用,模型可能需掌握兩種能力,並提供專門機制。 PubMed DOI

Transformer神經網絡,特別是大型語言模型(LLMs),在材料分析、設計和製造上很有效。它們能處理各種數據,支持工程分析,像MechGPT在材料力學領域表現出理解能力。檢索增強的本體知識圖表等策略可提高生成性能,解決困難。這些方法在材料設計探索中有優勢,並提供見解。非線性取樣和基於代理的建模增強生成能力,改進內容生成和評估。例如,問答、代碼生成和自動生成力場開發。 PubMed DOI

推理對智慧系統很重要。大型語言模型在抽象推理上表現不錯,但也有缺陷。人類推理受現實世界影響,當問題支持邏輯時,推理更可靠。語言模型和人類展現相似推理模式。研究顯示兩者在準確性和信心上相似,但在某些任務上有差異,如Wason選擇。了解這些可提供對人類認知和語言模型的洞察。 PubMed DOI

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI

這項研究探討了人工神經網絡(ANNs)在沒有先前訓練的情況下進行抽象推理的潛力,並針對其依賴過去數據的問題進行分析。研究人員利用問題數據來優化簡單網絡的權重,並應用於視覺推理任務。結果顯示,該模型能有效解決問題,無需依賴過去範例。此外,研究還探討了ANNs解題與知識積累的關係,提出了一種新機制,說明這些網絡如何在推理任務中即時適應與學習。 PubMed DOI

「反轉詛咒」突顯了自回歸解碼器模型(如GPT)的限制,這些模型在推斷關係時常常遇到困難,例如從「A是B」推斷「B是A」。這引發了對它們在知識圖譜構建等任務中的有效性擔憂。相對而言,雙向模型如BERT則不會面臨這個問題。我們的研究進一步探討了演繹推理,發現雖然這兩種模型在處理兩個集合時表現良好,但在三個集合的運算上卻有困難。因此,選擇BERT或GPT應根據具體任務需求,利用各自的優勢。 PubMed DOI

這項研究提出了一個由人工智慧驅動的框架,利用大型語言模型來模擬科學推理和同行評審,預測有效的組合療法。該框架的準確度達到0.74,超過傳統方法的0.52。研究強調高品質範例、外部知識整合及自我一致性的重要性。外部驗證使用私有數據,準確度更達0.82。這個框架提供了一種自動化的知識驅動方法,適用於數據不足的生物推理任務。相關源代碼和數據可在 https://github.com/QidiXu96/Coated-LLM 獲得。 PubMed DOI

這項研究探討深度神經網絡(DNNs)在學習和泛化不同結構語言的表現,並與人類學習者進行比較。結果顯示,無論是大型語言模型還是遞迴神經網絡,當接觸到更具結構性的語言時,學習效果更佳。具體來說,DNNs在處理組合語言時,展現出更好的系統性泛化和模型間共識增加,且與人類學習模式更一致。這顯示DNNs也能從語言的組合特性中獲益,提升其作為理解人類語言學習模型的有效性。 PubMed DOI

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI