原始文章

這項研究探討邏輯數學符號(LMS)處理的神經基礎,發現LMS能力可能源自基本的認知系統,特別是空間認知,而非語言處理。研究顯示,LMS與空間任務的腦部激活模式有顯著重疊,與語言處理的重疊則較少。層次聚類分析也顯示LMS任務在神經上與空間任務相似,暗示兩者有深層連結。這些結果支持空間認知是LMS處理基礎的觀點,並解釋大型語言模型在邏輯推理上的局限性,尤其是缺乏空間表徵的模型。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

這項研究探討大腦在即時對話中如何處理語言,利用fMRI技術測量參與者的神經活動。研究指出,理解和產生語言的神經系統是相互連結的,卻常被分開研究。透過分析大型語言模型的上下文詞嵌入,發現負責語言產出和理解的腦區有顯著重疊,並延伸至與社會認知相關的區域,顯示大腦的語言處理系統與溝通的更廣泛網絡有共同特徵。 PubMed DOI

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI

這項研究探討人類大腦在聽語音時如何編碼單詞意義,特別是海馬體的角色。研究人員記錄了數百個神經元的活動,發現單詞意義是透過不同語義類別的神經元綜合表現來表示的。結果顯示,神經反應距離與語義距離相關,這與大型語言模型(如BERT)相似,但在非上下文模型(如Word2Vec)中則未見此現象,顯示上下文對理解意義的重要性。此外,神經反應範圍與詞彙多義性有關,進一步強調上下文的關鍵角色。總體而言,結果支持海馬體使用向量編碼原則來表示語義信息。 PubMed DOI

TL;DR: 稀疏自編碼器能從大型語言模型中抓出高維度的概念向量,並在三個層級展現結構:小尺度像晶體一樣排列、概念會聚成像大腦區域的群聚、中尺度則有明顯的空間分布;大尺度上,特徵空間呈現高度各向異性,特徵值分布符合冪律,且不同層的群聚程度會變化。 PubMed DOI

大型語言模型像GPT-4雖然能解簡單的心智理論題目,但遇到複雜、貼近人類的推理還是有困難。它們的表現可能只是剛好符合測驗方式,並不代表真的理解。現有研究多用文字題,忽略人類社會認知的多元面向。這篇評論提醒大家,LLMs不等於真正的人類心智理論,未來評估方式要更貼近現實。 PubMed DOI

近期有研究質疑大型語言模型(LLMs)是否真的會類比推理,還是只是在模仿資料。雖然有些測試顯示LLMs表現不佳,但本研究發現,只要讓LLMs能寫和執行程式碼,即使在全新題型上也能舉一反三,證明它們真的有類比推理能力,不只是死背或模仿。 PubMed DOI

LLMs 只靠語言就能學到像人類一樣的抽象概念,但在感官和動作相關的概念上,跟人類還是有落差。加入視覺等多感官訓練後,LLMs 在這些領域的表現會更接近人類。這說明多感官經驗對 LLMs 形成完整人類概念很重要。 PubMed DOI

大型語言模型在辨識單一神經迷思時表現比人類好,但遇到實際應用情境時,通常不會主動質疑迷思,因為它們傾向迎合使用者。若明確要求糾正錯誤,效果才明顯提升。總之,除非特別指示,否則 LLMs 目前還不適合單靠來防堵教育現場的神經迷思。 PubMed DOI

大型語言模型在視覺化任務中,特別有專家指引時,能模擬人類評分與推理,且在專家信心高時表現與人類相近。不過,LLMs在穩定性和偏誤上仍有限,適合用來快速原型評估,但還是無法完全取代傳統使用者研究。 PubMed DOI