原始文章

這項研究用fMRI和GPT語言模型分析真實對話時的大腦活動。結果發現,大腦有些區域在說話和聽話時處理語言很像,但也有些區域會根據你是說還是聽,出現不同活動,這跟大腦怎麼整合語境有關。代表理解和產生對話時,大腦有共同也有獨特的處理方式,會在不同時間尺度下運作。 PubMed DOI


站上相關主題文章列表

這項研究探討成年人在忽略一位講者的情況下,如何處理來自兩位不同講者的語音,並利用腦電圖(EEG)測量神經反應。研究重點在於語音的聲學特徵、單字頻率及單字的可預測性,後者是透過GPT-4估算的。結果顯示,英語母語者在分辨目標講者與干擾講者上表現較佳,而視覺任務能減少詞彙處理。當單字可預測性低時,聽眾更專注於聲學特徵,顯示語音感知涉及聽覺與詞彙處理的複雜互動,突顯在挑戰性聆聽環境中的適應性。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

這項研究探討大腦在即時對話中如何處理語言,利用fMRI技術測量參與者的神經活動。研究指出,理解和產生語言的神經系統是相互連結的,卻常被分開研究。透過分析大型語言模型的上下文詞嵌入,發現負責語言產出和理解的腦區有顯著重疊,並延伸至與社會認知相關的區域,顯示大腦的語言處理系統與溝通的更廣泛網絡有共同特徵。 PubMed DOI

這項研究探討了從非侵入性腦部錄音重建語言的挑戰,傳統上是透過分類方法將腦部數據與預定語言候選項匹配。作者提出一種新方法,利用自回歸生成技術,讓大型語言模型(LLM)直接將功能性磁共振成像(fMRI)解碼後的腦部表徵作為輸入,省去預先構建候選項的步驟。這種方法能生成高品質內容,特別對意外內容的反應更佳,並在各種任務中表現優於傳統分類方法,顯示腦語言介面的潛力。 PubMed DOI

這項研究發現,GPT-3.5 和 GPT-4 生成的自傳故事,在敘事連貫性上跟人類寫的差不多,顯示這些 AI 模型有很高的知識整合能力,類似人類的自我認同。 PubMed DOI

大型語言模型常會產生看似正確但其實錯誤的回答,這跟人類接受性失語症很像。研究發現,LLMs的內部運作和失語症患者大腦的資訊處理方式很相似,特別是在狀態轉換和停留時間上。這種分析方法未來有機會幫助改進LLMs,也可能應用在失語症診斷上。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

研究用 GPT-3 分析精神病患和健康者的語音,發現精神病患對長語境不敏感,語言較混亂,這能預測正性思考障礙(如語無倫次),但無法預測負性症狀(如語言貧乏)。這方法可自動、客觀評估語言混亂,並連結臨床症狀與語言處理差異。 PubMed DOI

最新研究發現,人類大腦在理解語意時,會把單字和周圍單字的神經反應結合起來,這跟transformer語言模型的自我注意力機制很像。大腦也會編碼單字在句子裡的位置,類似模型的「位置編碼」。而且,大腦加權上下文單字的方式,跟語言模型的self-attention權重也很接近,顯示兩者語言處理策略可能相似。 PubMed DOI