原始文章

這篇論文提出「功能情境N-Frame模型」,結合預測編碼、量子貝葉斯主義和演化動力學,來解釋人類和AI意識如何在量子認知系統中更新信念與互動。模型認為認知偏誤其實是量子世界下的適應策略,並用量子數學來描述這些過程,提供檢驗AI意識的新方法,也有助於解決量子測量問題。 PubMed DOI


站上相關主題文章列表

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

這項研究探討大型語言模型(LLMs)如何理解自我一致性,重點在於它們在回應中保持邏輯和上下文一致的能力。作者提出了一個名為 S²AF 的框架,透過自我提問和回答的機制,讓 LLMs 能夠自主生成、提問、回答並評估輸出。研究顯示,LLMs 在理解自我一致性方面的能力各有不同,並能透過自身輸出提升表現,這稱為「自我增強前饋」。實驗結果支持這些結論,顯示模型在不同推理情境中對知識關係的理解差異。 PubMed DOI

這項研究發現,GPT-3.5 和 GPT-4 生成的自傳故事,在敘事連貫性上跟人類寫的差不多,顯示這些 AI 模型有很高的知識整合能力,類似人類的自我認同。 PubMed DOI

大型語言模型像GPT-4雖然能解簡單的心智理論題目,但遇到複雜、貼近人類的推理還是有困難。它們的表現可能只是剛好符合測驗方式,並不代表真的理解。現有研究多用文字題,忽略人類社會認知的多元面向。這篇評論提醒大家,LLMs不等於真正的人類心智理論,未來評估方式要更貼近現實。 PubMed DOI

研究發現,GPT-4o 在寫正面或負面普丁文章後,自己的「態度」也會跟著改變,類似人類的認知失調反應。若讓它自己選擇寫哪種文章,這種現象更明顯,顯示 GPT-4o 可能有類似人類自我意識的功能。不過,這背後的機制還不清楚。 PubMed DOI

這項研究開發出一套結合 ChatGPT-4 的認知型機器人架構,能模擬人類個性、情緒、動機、注意力和記憶。機器人可處理文字和影像,並根據設定的個性回應,還能用文件嵌入技術實現長期記憶。個性模擬參考心理學理論,並用 Big Five 測驗驗證。Mobi 機器人展現出先進的心智理論,能靈活應對社交互動,對話自然又有意圖。 PubMed DOI

把AI講得像有主動行動力,會讓不熟悉AI的人更容易把責任推給AI,因為他們會把AI當成像人一樣看待。但對AI有經驗的人,這種說法影響就比較小,也不太會怪AI。所以,用這種語氣,主要會影響對AI不熟的人。 PubMed DOI

這篇論文提出新方法,測試大型語言模型(LLMs)能否監控和調整自己的神經激活狀態,也就是「後設認知」能力。結果發現,LLMs能學會回報並影響部分內部活動,但只侷限在較低維度的範圍。這對理解AI運作和提升AI安全性有重要意義。 PubMed

榮格的原型不只是心理學概念,其實是生物、神經和文化共同編碼的心智模式。Barbieri 的「編碼生物學」認為生命靠編碼規則運作,神經科學也發現原型是大腦穩定的神經模式。現在 AI 也能模擬這些原型,雖然沒意識。這觀點把生物、心理和 AI 串連起來,認為原型是底層編碼的產物。 PubMed DOI

**重點摘要:** 這項研究比較了人類、大型語言模型(LLMs)以及強化學習(RL)在一個為期多天的通勤決策遊戲中的表現,目的是評估AI取代人類決策的能力。LLMs展現出類似人類的學習能力,也能做出穩定的決策,但在團體合作、理解他人選擇,以及應用現實世界知識方面仍有困難。 PubMed DOI