原始文章

這篇文章介紹了心理體系(Psychomatics),探討大型語言模型(LLMs)與人類在資訊處理上的差異。雖然LLMs在學習和語言使用上展現出類似的認知技能,但其基本過程卻截然不同。心理體系透過比較LLMs與生物系統,分析它們在獲取、記憶和利用資訊上的差異。LLMs能夠有效操控語言模式,但缺乏人類的情感和經驗,限制了對複雜關係的理解。最終,這個框架旨在深入了解語言、認知和智慧,並指導更具人性化的人工智慧系統發展。 PubMed DOI


站上相關主題文章列表

LLM與意識無直接關聯,因為它們缺乏生物感官經驗和相應神經系統。意識是哺乳動物丘腦皮質系統的產物,而LLM無法模擬這些生物演化過程。生物靠複雜過程維持生存和主動性,而這些過程與意識緊密相關。 PubMed DOI

大型語言模型(LLMs)在推理任務上表現優秀,挑戰傳統模型。雖然有限制,但透過提供範例和擴展網絡等方法,可以增強性能,類似人類思考。分析LLM的錯誤可洞察人類偏見。LLMs帶來希望,從聯想主義角度研究智能和推理,透過認知心理學工具更深入了解人類思維。 PubMed DOI

討論如何利用心理測驗庫評估大型語言模型的特質,假設模型會從性訓練文本中獲得心理特質。透過心理測驗庫,研究者可以探究比較模型的非認知特徵,揭示其個性、價值觀、信念和偏見。文章提出了評估模型特質的方法,包括零-shot分類。最後討論了AI心理測量學的挑戰和未來研究方向。 PubMed DOI

科技進步帶來新挑戰,人工智慧是否有意識仍有爭議。調查顯示,大多數美國人對AI可能具有某種意識持開放態度,但個人差異影響看法。公眾和專家意見可能不同,對AI的法律和道德考量有潛在影響。 PubMed DOI

三十年前,我們比較了人工智慧和人類心靈的相似之處,將弗洛伊德的理論和連結主義(如PDP系統)放在一起討論。這些模型如今已成為人工智慧的基礎,像ChatGPT等廣泛應用,從精神病學模擬到深度學習的計算機視覺。RNN、LSTM和Transformer模型(如BERT和GPT)已經改變了自然語言處理等任務。我們探討這些工具在醫療保健領域的影響,從診斷到心理治療,並討論保持關係的重要性,以及將這些工具用於治療模型的對比。 PubMed DOI

這項研究探討接觸大型語言模型(LLMs)對個體自我認知及他人認知的影響,特別是心智感知的角度。參與者在與LLMs互動前後,評估自己的行動能力和經驗能力。結果顯示,接觸LLMs後,參與者對自身能力的評價提高,並認為這些特質對人類不再獨特。這顯示擬人化LLMs可能增強個體對自我心智的看法,並減少這些特質被視為人類專有的感知,進而引發對擬人化影響的更深思考。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 PubMed DOI

這篇論文探討大型語言模型(LLMs),如OpenAI的GPT-4,所展現的突現特性,特別是它們被認為的智慧與意識。作者指出,對這些特性的定義不夠清晰,且模型內部推理存在缺陷。智能系統的關鍵在於對環境的反應,這可從行為中推斷。透過哲學現象學和認知生態學,論文分析了GPT-4的錯誤,認為其缺乏人類的時間意識,導致無法形成穩定的感知世界。最終,作者認為GPT-4與使用者共同創造虛構敘事,而非真正理解或擁有意識。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI