原始文章

這項研究探討大腦如何處理熟悉的人和地方,透過將記憶轉換成向量表示並使用語言模型分析。參與者提供親近的個體和地點名稱及經歷描述,研究人員收集腦電圖(EEG)數據,並設有控制組。結果顯示,熟悉和著名實體在大腦中的編碼在200-800毫秒內顯著,特別是在顳頂區域和額葉。情境化的語言模型(XLM)在編碼表現上優於簡單模型,顯示語言模型能有效捕捉個人語義知識及其大腦處理過程。 PubMed DOI


站上相關主題文章列表

一項使用 64 人參與的 fMRI 研究發現,句子的神經表示比單詞更豐富,整體提升了 20-25%。不同腦區對粗粒度和細粒度含義有不同反應,顯示不同區域專門處理不同含義。 PubMed DOI

先前研究指出,利用預先訓練的語言模型解讀腦電圖信號在腦-電腦介面上有潛力。然而,腦電圖信號如何嵌入語言模型及主觀效應影響尚不清楚。現有評估著重於語法,缺乏人類理解度洞察。提出結合深度學習的新架構,用於腦電圖解碼、語言模型和句子精煉。引入基於BERTScore的新評估指標,進行消融研究分析模組貢獻。此方法在兩個數據集上評估,表現優於先前技術。 PubMed DOI

這項研究探討有效溝通如何依賴於對詞彙意義的共同理解。研究人員記錄癲癇患者的自發對話,並開發一個框架,將說話者和聆聽者的腦部活動對齊到大型語言模型(LLM)定義的共享空間。結果顯示,LLM的情境嵌入能更好地捕捉說話者與聆聽者之間的神經對齊,超越傳統的語法或發音模型。這項研究強調了LLM在理解人類溝通複雜性方面的潛力。 PubMed DOI

這項初步研究探討個體在閱讀時如何處理語意,透過分析眼動和腦電圖(EEG)數據,並結合大型語言模型(LLMs)。研究聚焦於閱讀理解任務,參與者閱讀不同關鍵字相關性的單詞。研究結果顯示,與關鍵字相關的單詞獲得的眼動注視次數顯著高於低相關性單詞,達到60%以上的驗證準確率。這項研究對於理解人類認知及發展閱讀輔助技術具有重要意義。 PubMed DOI

這項研究探討語言與情感理解的關聯,利用大型語言模型(LLMs)來分析語言如何影響AI在新情境中推斷情感。研究人員找出了十四個與人類情感相關的獨特屬性,並發現這些屬性由特定神經元群體表徵。透過操控這些神經元,研究證明情感知識對生成情感推論至關重要。結果顯示,LLMs能透過語言學習情感,而不需依賴感官或運動經驗,語言知識對情感推論非常重要。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來進行大規模的人類記憶實驗,特別是針對自然敘事的分析。研究發現,隨著敘事長度增加,記憶表現會改善,但參與者常常只會總結長敘事,而非回憶具體細節。當敘事順序被打亂時,回憶表現顯著下降,但識別表現穩定,顯示參與者仍能根據理解重建故事。研究還利用LLM生成的文本嵌入來測量敘事的語義相似度,與回憶可能性有強相關性,顯示LLMs在記憶研究中的潛力。 PubMed DOI

這項研究探討了從非侵入性腦部錄音重建語言的挑戰,傳統上是透過分類方法將腦部數據與預定語言候選項匹配。作者提出一種新方法,利用自回歸生成技術,讓大型語言模型(LLM)直接將功能性磁共振成像(fMRI)解碼後的腦部表徵作為輸入,省去預先構建候選項的步驟。這種方法能生成高品質內容,特別對意外內容的反應更佳,並在各種任務中表現優於傳統分類方法,顯示腦語言介面的潛力。 PubMed DOI

這項研究探討人類大腦在聽語音時如何編碼單詞意義,特別是海馬體的角色。研究人員記錄了數百個神經元的活動,發現單詞意義是透過不同語義類別的神經元綜合表現來表示的。結果顯示,神經反應距離與語義距離相關,這與大型語言模型(如BERT)相似,但在非上下文模型(如Word2Vec)中則未見此現象,顯示上下文對理解意義的重要性。此外,神經反應範圍與詞彙多義性有關,進一步強調上下文的關鍵角色。總體而言,結果支持海馬體使用向量編碼原則來表示語義信息。 PubMed DOI

這項研究探討了閱讀理解的挑戰,這是許多學習者常遇到的困難。研究者利用腦機介面(BCI)技術,預測閱讀的單詞與目標推論單詞的相關性。他們結合腦電圖(EEG)和眼動追蹤數據,運用大型語言模型(LLMs)創建新的閱讀嵌入表示。結果顯示,九名受試者的平均準確率為68.7%,最佳可達71.2%。此外,對BERT模型進行微調後,達到92.7%的準確率。這項研究在增強閱讀技能工具的開發上邁出了重要一步,相關代碼和數據已在GitHub上公開。 PubMed DOI