原始文章

這項研究探討大腦如何處理熟悉的人和地方,透過將記憶轉換成向量表示並使用語言模型分析。參與者提供親近的個體和地點名稱及經歷描述,研究人員收集腦電圖(EEG)數據,並設有控制組。結果顯示,熟悉和著名實體在大腦中的編碼在200-800毫秒內顯著,特別是在顳頂區域和額葉。情境化的語言模型(XLM)在編碼表現上優於簡單模型,顯示語言模型能有效捕捉個人語義知識及其大腦處理過程。 PubMed DOI


站上相關主題文章列表

Transformer模型像GPT可以預測人腦對語言的反應,並生成類似人類的語言。研究者利用1,000句子的fMRI數據,展示基於GPT的模型可以預測句子對人腦的反應。他們利用這個模型找出能影響語言網絡大腦活動的新句子,發現這些句子能強烈影響個體的語言區域。研究指出,句子的驚喜和結構會影響大腦反應。結果顯示,神經網絡模型不僅可以模擬人類語言,還能影響高級腦區(如語言網絡)的神經活動。 PubMed DOI

這項研究探討有效溝通如何依賴在不同情境中對詞語意義的共同理解。通過分析癲癇患者對話期間的腦部活動,研究人員發現語言模型學習的嵌入空間可以捕捉說話者和聽眾之間神經活動的對齊。這表明大腦在詞語表達之前和之後處理語言內容,提供了洞察力,說明了在現實互動中思想如何傳遞。 PubMed DOI

Transformer模型如GPT可預測大腦對語言的反應,並識別影響大腦活動的句子。研究發現句子的驚喜和結構影響大腦反應。結論是神經網絡模型可模擬人類語言並控制大腦區域活動。 PubMed DOI

一項使用 64 人參與的 fMRI 研究發現,句子的神經表示比單詞更豐富,整體提升了 20-25%。不同腦區對粗粒度和細粒度含義有不同反應,顯示不同區域專門處理不同含義。 PubMed DOI

大型語言模型(LLMs)在理解語言方面有進展,但在語言能力和認知方面看法不同。研究評估LLMs的形式語言能力和功能語言能力,人類神經科學顯示這兩種能力依賴不同神經機制。LLMs在形式能力表現優異,但在功能任務上表現不穩,可能需要額外調整或外部模組。為了達到人類般的語言使用,模型可能需掌握兩種能力,並提供專門機制。 PubMed DOI

先前研究指出,利用預先訓練的語言模型解讀腦電圖信號在腦-電腦介面上有潛力。然而,腦電圖信號如何嵌入語言模型及主觀效應影響尚不清楚。現有評估著重於語法,缺乏人類理解度洞察。提出結合深度學習的新架構,用於腦電圖解碼、語言模型和句子精煉。引入基於BERTScore的新評估指標,進行消融研究分析模組貢獻。此方法在兩個數據集上評估,表現優於先前技術。 PubMed DOI

最新研究利用先進語言模型研究人腦處理語言方式。模型提升語言能力,但神經科學研究未跟上。研究者用不同大小模型觀察其捕捉大腦語言資訊能力,發現大模型預測神經活動較佳。研究指出,隨模型增大,最佳神經信號預測層轉移到較早層,顯示大腦處理語言有組織層次結構。 PubMed DOI

這項研究探討有效溝通如何依賴於對詞彙意義的共同理解。研究人員記錄癲癇患者的自發對話,並開發一個框架,將說話者和聆聽者的腦部活動對齊到大型語言模型(LLM)定義的共享空間。結果顯示,LLM的情境嵌入能更好地捕捉說話者與聆聽者之間的神經對齊,超越傳統的語法或發音模型。這項研究強調了LLM在理解人類溝通複雜性方面的潛力。 PubMed DOI

這項初步研究探討個體在閱讀時如何處理語意,透過分析眼動和腦電圖(EEG)數據,並結合大型語言模型(LLMs)。研究聚焦於閱讀理解任務,參與者閱讀不同關鍵字相關性的單詞。研究結果顯示,與關鍵字相關的單詞獲得的眼動注視次數顯著高於低相關性單詞,達到60%以上的驗證準確率。這項研究對於理解人類認知及發展閱讀輔助技術具有重要意義。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI