原始文章

這項研究用fMRI和GPT語言模型分析真實對話時的大腦活動。結果發現,大腦有些區域在說話和聽話時處理語言很像,但也有些區域會根據你是說還是聽,出現不同活動,這跟大腦怎麼整合語境有關。代表理解和產生對話時,大腦有共同也有獨特的處理方式,會在不同時間尺度下運作。 PubMed DOI


站上相關主題文章列表

這項研究探討成年人在忽略一位講者的情況下,如何處理來自兩位不同講者的語音,並利用腦電圖(EEG)測量神經反應。研究重點在於語音的聲學特徵、單字頻率及單字的可預測性,後者是透過GPT-4估算的。結果顯示,英語母語者在分辨目標講者與干擾講者上表現較佳,而視覺任務能減少詞彙處理。當單字可預測性低時,聽眾更專注於聲學特徵,顯示語音感知涉及聽覺與詞彙處理的複雜互動,突顯在挑戰性聆聽環境中的適應性。 PubMed DOI

這項研究探討有效溝通如何依賴於對詞彙意義的共同理解。研究人員記錄癲癇患者的自發對話,並開發一個框架,將說話者和聆聽者的腦部活動對齊到大型語言模型(LLM)定義的共享空間。結果顯示,LLM的情境嵌入能更好地捕捉說話者與聆聽者之間的神經對齊,超越傳統的語法或發音模型。這項研究強調了LLM在理解人類溝通複雜性方面的潛力。 PubMed DOI

這段文字探討變壓器網絡(像是ChatGPT)與大腦神經活動之間的相似之處。變壓器模型透過「自注意力」機制,從整個輸入中生成編碼向量,理解數據的長期依賴性。作者認為,大腦的神經波也可能以類似方式運作,捕捉感官輸入的歷史,提取時間上下文。這顯示出人工智慧模型與生物神經處理之間的平行關係。 PubMed DOI

這篇論文探討了基於Transformer的大型語言模型(LLMs),特別是微調過的GPT-2,對口語對話的理解與預測能力。作者研究這些模型是否能辨識說話者身份對對話內容的影響。透過微調模型並分析不同說話者的對話序列,結果顯示模型在單詞可預測性上有些影響,但未能準確模仿人類的對話行為。研究指出,LLMs能生成符合語言規範的文本,但在模擬人類對話方面仍有待加強。 PubMed DOI

這項研究探討大腦如何理解語言,特別是如何透過上下文來預測即將出現的單字。研究指出,傳統的分析方法對於單字的特性不夠適合,導致對詞彙預測機制的理解有限。為了解決這個問題,研究者提出了兩個新的評估指標,並在模擬及實際的腦電圖數據上測試,結果顯示效果比以往方法提升超過140%。這項進展有助於我們更深入了解大腦在語言處理和預測方面的運作。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

這項研究探討大腦在即時對話中如何處理語言,利用fMRI技術測量參與者的神經活動。研究指出,理解和產生語言的神經系統是相互連結的,卻常被分開研究。透過分析大型語言模型的上下文詞嵌入,發現負責語言產出和理解的腦區有顯著重疊,並延伸至與社會認知相關的區域,顯示大腦的語言處理系統與溝通的更廣泛網絡有共同特徵。 PubMed DOI

這項研究探討了從非侵入性腦部錄音重建語言的挑戰,傳統上是透過分類方法將腦部數據與預定語言候選項匹配。作者提出一種新方法,利用自回歸生成技術,讓大型語言模型(LLM)直接將功能性磁共振成像(fMRI)解碼後的腦部表徵作為輸入,省去預先構建候選項的步驟。這種方法能生成高品質內容,特別對意外內容的反應更佳,並在各種任務中表現優於傳統分類方法,顯示腦語言介面的潛力。 PubMed DOI

這項研究發現,GPT-3.5 和 GPT-4 生成的自傳故事,在敘事連貫性上跟人類寫的差不多,顯示這些 AI 模型有很高的知識整合能力,類似人類的自我認同。 PubMed DOI

大型語言模型常會產生看似正確但其實錯誤的回答,這跟人類接受性失語症很像。研究發現,LLMs的內部運作和失語症患者大腦的資訊處理方式很相似,特別是在狀態轉換和停留時間上。這種分析方法未來有機會幫助改進LLMs,也可能應用在失語症診斷上。 PubMed DOI