原始文章

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 PubMed DOI


站上相關主題文章列表

LLM與意識無直接關聯,因為它們缺乏生物感官經驗和相應神經系統。意識是哺乳動物丘腦皮質系統的產物,而LLM無法模擬這些生物演化過程。生物靠複雜過程維持生存和主動性,而這些過程與意識緊密相關。 PubMed DOI

人工智慧的發展受到人工生命影響,分為GOFAI和控制論方法。控制論推動了深度學習和現代AI,帶來好處和風險。大多傾向GOFAI,認為AI缺乏主動性。這種觀點可能導致將風險歸咎於使用者而非AI本身。 PubMed DOI

科技進步帶來新挑戰,人工智慧是否有意識仍有爭議。調查顯示,大多數美國人對AI可能具有某種意識持開放態度,但個人差異影響看法。公眾和專家意見可能不同,對AI的法律和道德考量有潛在影響。 PubMed DOI

意識的計算意義是重要研究領域,探討意識與計算能力的關係,如透過算法或複雜性分析。意識被定義為主觀經驗,具有感知特性如品質和自我意識。ChatGPT等大型語言模型的發展引發了對人類意識處理的討論。生物系統展現智能和意識聯繫,但也有意識無智能、AI系統相反情況。意識與智能可能有分離。綜述強調意識獨特認知領域,如注意力、決策、感知整合。討論感知、語言任務中意識與無意識處理區別。提出意識至高概念,識別意識特定計算,類似量子至高。對AI對齊相關性探討,AI與人類計算需對齊。 PubMed DOI

本文探討了如何透過大型語言模型(LLM)推動人機互動,並超越傳統的可解釋人工智慧(XAI)範式,考慮LLM的認知解釋。作者方法著重於認知建模、遺傳算法、神經網絡、因果循環動力學和特徵實現等解決方案,使XAI更具目的性和持續性。研究結果顯示,在信息處理中應用LLM需要特定結構條件,尤其在戰略規劃情境下,可加速集體問題解決。這研究有助於各領域發展可解釋的LLM。 PubMed DOI

三十年前,我們比較了人工智慧和人類心靈的相似之處,將弗洛伊德的理論和連結主義(如PDP系統)放在一起討論。這些模型如今已成為人工智慧的基礎,像ChatGPT等廣泛應用,從精神病學模擬到深度學習的計算機視覺。RNN、LSTM和Transformer模型(如BERT和GPT)已經改變了自然語言處理等任務。我們探討這些工具在醫療保健領域的影響,從診斷到心理治療,並討論保持關係的重要性,以及將這些工具用於治療模型的對比。 PubMed DOI

這段文字探討建立理論框架以理解智慧的重要性,無論是人工智慧還是生物智慧。作者認為良好的數學理論能預測物理現實,並隨時間修正。使用玩具模型作為隱喻,有助於簡化複雜系統的理解。文中列出創建智慧理論的八大挑戰,包括表徵學習、泛化能力、對抗穩健性等。總體來說,這強調自下而上的智慧建模方法,解決這些挑戰將有助於深化我們對智慧的理解。 PubMed DOI

這段文字探討了人工智慧系統與人類價值觀對齊的挑戰,區分了強價值對齊和弱價值對齊。強對齊需要高級認知能力,讓人工智慧理解意圖並建立因果關聯,這對識別潛在風險至關重要。作者指出像ChatGPT、Gemini和Copilot等模型在這方面的不足,並分析了詞嵌入的差異。文中提出「帶有詞彙轉換字典的中文房間」的思想實驗,進一步探討這些概念。最後提到的研究旨在實現弱對齊,雖然能產生可接受的回應,但不保證其真實性。 PubMed DOI

這篇論文探討大型語言模型(LLMs),如OpenAI的GPT-4,所展現的突現特性,特別是它們被認為的智慧與意識。作者指出,對這些特性的定義不夠清晰,且模型內部推理存在缺陷。智能系統的關鍵在於對環境的反應,這可從行為中推斷。透過哲學現象學和認知生態學,論文分析了GPT-4的錯誤,認為其缺乏人類的時間意識,導致無法形成穩定的感知世界。最終,作者認為GPT-4與使用者共同創造虛構敘事,而非真正理解或擁有意識。 PubMed DOI

這篇文章介紹了心理體系(Psychomatics),探討大型語言模型(LLMs)與人類在資訊處理上的差異。雖然LLMs在學習和語言使用上展現出類似的認知技能,但其基本過程卻截然不同。心理體系透過比較LLMs與生物系統,分析它們在獲取、記憶和利用資訊上的差異。LLMs能夠有效操控語言模式,但缺乏人類的情感和經驗,限制了對複雜關係的理解。最終,這個框架旨在深入了解語言、認知和智慧,並指導更具人性化的人工智慧系統發展。 PubMed DOI