原始文章

這項研究探討大腦在即時對話中如何處理語言,利用fMRI技術測量參與者的神經活動。研究指出,理解和產生語言的神經系統是相互連結的,卻常被分開研究。透過分析大型語言模型的上下文詞嵌入,發現負責語言產出和理解的腦區有顯著重疊,並延伸至與社會認知相關的區域,顯示大腦的語言處理系統與溝通的更廣泛網絡有共同特徵。 PubMed DOI


站上相關主題文章列表

這項研究探討成年人在忽略一位講者的情況下,如何處理來自兩位不同講者的語音,並利用腦電圖(EEG)測量神經反應。研究重點在於語音的聲學特徵、單字頻率及單字的可預測性,後者是透過GPT-4估算的。結果顯示,英語母語者在分辨目標講者與干擾講者上表現較佳,而視覺任務能減少詞彙處理。當單字可預測性低時,聽眾更專注於聲學特徵,顯示語音感知涉及聽覺與詞彙處理的複雜互動,突顯在挑戰性聆聽環境中的適應性。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

這項研究探討了從非侵入性腦部錄音重建語言的挑戰,傳統上是透過分類方法將腦部數據與預定語言候選項匹配。作者提出一種新方法,利用自回歸生成技術,讓大型語言模型(LLM)直接將功能性磁共振成像(fMRI)解碼後的腦部表徵作為輸入,省去預先構建候選項的步驟。這種方法能生成高品質內容,特別對意外內容的反應更佳,並在各種任務中表現優於傳統分類方法,顯示腦語言介面的潛力。 PubMed DOI

這項研究探討人類大腦在聽語音時如何編碼單詞意義,特別是海馬體的角色。研究人員記錄了數百個神經元的活動,發現單詞意義是透過不同語義類別的神經元綜合表現來表示的。結果顯示,神經反應距離與語義距離相關,這與大型語言模型(如BERT)相似,但在非上下文模型(如Word2Vec)中則未見此現象,顯示上下文對理解意義的重要性。此外,神經反應範圍與詞彙多義性有關,進一步強調上下文的關鍵角色。總體而言,結果支持海馬體使用向量編碼原則來表示語義信息。 PubMed DOI

這項研究探討了閱讀理解的挑戰,這是許多學習者常遇到的困難。研究者利用腦機介面(BCI)技術,預測閱讀的單詞與目標推論單詞的相關性。他們結合腦電圖(EEG)和眼動追蹤數據,運用大型語言模型(LLMs)創建新的閱讀嵌入表示。結果顯示,九名受試者的平均準確率為68.7%,最佳可達71.2%。此外,對BERT模型進行微調後,達到92.7%的準確率。這項研究在增強閱讀技能工具的開發上邁出了重要一步,相關代碼和數據已在GitHub上公開。 PubMed DOI

這項研究發現,GPT-3.5 和 GPT-4 生成的自傳故事,在敘事連貫性上跟人類寫的差不多,顯示這些 AI 模型有很高的知識整合能力,類似人類的自我認同。 PubMed DOI

大型語言模型常會產生看似正確但其實錯誤的回答,這跟人類接受性失語症很像。研究發現,LLMs的內部運作和失語症患者大腦的資訊處理方式很相似,特別是在狀態轉換和停留時間上。這種分析方法未來有機會幫助改進LLMs,也可能應用在失語症診斷上。 PubMed DOI

這項研究用fMRI和GPT語言模型分析真實對話時的大腦活動。結果發現,大腦有些區域在說話和聽話時處理語言很像,但也有些區域會根據你是說還是聽,出現不同活動,這跟大腦怎麼整合語境有關。代表理解和產生對話時,大腦有共同也有獨特的處理方式,會在不同時間尺度下運作。 PubMed DOI

研究用 GPT-3 分析精神病患和健康者的語音,發現精神病患對長語境不敏感,語言較混亂,這能預測正性思考障礙(如語無倫次),但無法預測負性症狀(如語言貧乏)。這方法可自動、客觀評估語言混亂,並連結臨床症狀與語言處理差異。 PubMed DOI

最新研究發現,人類大腦在理解語意時,會把單字和周圍單字的神經反應結合起來,這跟transformer語言模型的自我注意力機制很像。大腦也會編碼單字在句子裡的位置,類似模型的「位置編碼」。而且,大腦加權上下文單字的方式,跟語言模型的self-attention權重也很接近,顯示兩者語言處理策略可能相似。 PubMed DOI