原始文章

這篇論文探討大型語言模型(LLMs),如OpenAI的GPT-4,所展現的突現特性,特別是它們被認為的智慧與意識。作者指出,對這些特性的定義不夠清晰,且模型內部推理存在缺陷。智能系統的關鍵在於對環境的反應,這可從行為中推斷。透過哲學現象學和認知生態學,論文分析了GPT-4的錯誤,認為其缺乏人類的時間意識,導致無法形成穩定的感知世界。最終,作者認為GPT-4與使用者共同創造虛構敘事,而非真正理解或擁有意識。 PubMed DOI


站上相關主題文章列表

研究用認知心理學方法評估GPT-3,發現在某些任務表現不錯,但在因果推理和有向探索方面較弱。這些結果有助於我們更了解大型語言模型,也提出使用認知心理學工具深入研究高階人工智慧代理的建議。 PubMed DOI

大型語言模型(LLMs)是強大的預訓練模型,可微調應用在各種自然語言任務,減少單獨為每個任務建模的需求。像GPT-3和LaMDA這樣的模型經過少量啟動後可與人對話,但是否真正理解語言或展現智能存在爭議。從與LLMs的訪談中得出的結論變化顯示,對其智能的看法可能取決於訪問者的智商。這可能引發反向圖靈測試。隨著LLMs的進步,它們可能改變人機互動。將LLMs與感知運動裝置整合引發了對其實際能力的問題。提出了受大腦系統啟發的改進方案,以實現人工智能通用自主性。LLMs也可能提供有關大腦功能的見解。 PubMed DOI

在人工智慧研究界,有一場辯論是關於大型預訓練語言模型是否真正像人類一樣理解語言及其背景。討論了支持和反對這種理解的觀點,以及對智能科學的更廣泛問題。作者建議可以發展一個更全面的智能科學,來探索不同理解模式、它們的能力,以及各種認知形式的整合。 PubMed DOI

LLM與意識無直接關聯,因為它們缺乏生物感官經驗和相應神經系統。意識是哺乳動物丘腦皮質系統的產物,而LLM無法模擬這些生物演化過程。生物靠複雜過程維持生存和主動性,而這些過程與意識緊密相關。 PubMed DOI

最新的大型語言模型(LLMs)如GPT-3.5和GPT-4能夠產生類似人類的文字,對社會科學家相當有幫助,可用來建立詞彙相似度的標準。研究中使用GPT-4開發了一個典型性評估標準,並與其他模型相比較,以評估其與人類判斷的相關性。GPT-4在測量文學書籍和美國國會成員推文的典型性方面表現優異,超越了先前的最先進標準,且無需特定數據訓練,顯示了零-shot學習的重大進步。 PubMed DOI

科技進步帶來新挑戰,人工智慧是否有意識仍有爭議。調查顯示,大多數美國人對AI可能具有某種意識持開放態度,但個人差異影響看法。公眾和專家意見可能不同,對AI的法律和道德考量有潛在影響。 PubMed DOI

GPT-4的發布引起了人們對大型語言模型(LLMs)普遍應用的關注。這篇論文探討了ChatGPT對人類與電腦互動、心理學和社會的影響,著重於其技術基礎、對話界面的改進、心理效應、商業和社會應用,以及未來的發展方向。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這項研究系統性評估了GPT-3.5和GPT-4在心理科學領域的四個關鍵能力。首先,作為研究圖書館員,GPT-4在生成虛構參考文獻的準確性上明顯優於GPT-3.5。其次,GPT-4在識別研究倫理問題方面表現出色,成功糾正了大部分明顯和微妙的違規。第三,兩者都能重現文化偏見,顯示出數據生成的潛力。最後,兩者在預測新數據方面的能力有限。總體來看,雖然GPT模型有所進步,但在生成新見解和可靠參考文獻上仍有待加強。 PubMed DOI

這篇文章介紹了心理體系(Psychomatics),探討大型語言模型(LLMs)與人類在資訊處理上的差異。雖然LLMs在學習和語言使用上展現出類似的認知技能,但其基本過程卻截然不同。心理體系透過比較LLMs與生物系統,分析它們在獲取、記憶和利用資訊上的差異。LLMs能夠有效操控語言模式,但缺乏人類的情感和經驗,限制了對複雜關係的理解。最終,這個框架旨在深入了解語言、認知和智慧,並指導更具人性化的人工智慧系統發展。 PubMed DOI