原始文章

這項研究探討大腦如何處理動態面部表情,透過比較靜態圖像、視頻和計算機生成的面部動畫。研究目的是識別自然面部動態的神經相關性。主要發現包括: 1. **N400和LPP反應**:動態變形的N400振幅較高,顯示期望違反,而LPP振幅較低,暗示社交相關性降低;視頻則引發更高的LPP和額葉δ波活動。 2. **參與者感知**:參與者在評估變形表情的真實性時,發現快樂表情比恐懼表情更容易評估。 3. **神經機制**:額葉區域的δ波振盪可能在感知自然面部運動中扮演重要角色。 這項研究強調了面部感知的神經機制對微妙變化的敏感性,對未來的神經影像研究具有重要意義。 PubMed DOI


站上相關主題文章列表

人們會透過陌生人的臉孔特徵來形成社交印象,吸引力和可信度是關鍵。根據研究,臉孔的吸引力和可信度會隨著統計典型性增加而增加。這也解釋了對稱性在吸引力中的作用。大腦會專注於重要的臉部特徵,這解釋了社會心理學中的「平均性中的醜陋」效應。 PubMed DOI

研究發現使用大型語言模型(LLMs)控制機器人情感行為,預測並即時展示情緒,讓機器人展示一致面部表情,讓人覺得更像人類、情感適當,並留下正面印象。結果顯示LLMs能有效生成和控制機器人情感,可能增進治療、陪伴或客戶服務等情境下的人機互動。 PubMed DOI

這篇論文探討在自然環境中辨識面部表情的先進系統。它討論使用深度學習模型的用戶友好工具箱,以實現準確識別,儘管面臨著光線和頭部位置變化等挑戰。它還深入探討了多模態大型語言模型(MLLMs),這些模型可以通過考慮上下文因素來增強情緒分析,潛在地改變情緒研究和建模的方式。 PubMed DOI

大型語言模型可幫助機器人改進口語溝通,但在非語言溝通方面,尤其是面部表情,仍有落差。機器人在表達情感時難以使用面部動作,通常只能依賴聲音。挑戰在於製造複雜的面部表情,並在適當時機展現,才能顯得自然。解決之道是訓練機器人即時預測並模仿人類的面部表情,使互動更真實。研究指出,機器人能在人類微笑前毫秒預測並模仿,提升人機互動。 PubMed DOI

深度學習技術改善了腦電圖(EEG)信號的去噪,對醫學和腦部研究很重要。Retentive Network原本用於語言模型,現在用於EEG去噪,因為它特徵提取和建模能力強。結構與EEG信號特性吻合。將EEG信號轉為二維空間,增強去噪效果,也有助於理解大腦功能。提供標準化數據集,促進深度學習研究。 PubMed DOI

研究比較了真實影片、動態照片變形和 deepfakes 在情緒感知上的差異。參與者認為動態變形的表情最不明顯,而影片和 deepfakes 則相似。變形的快樂和悲傷被認為最不真實。相較之下,deepfakes 提供較標準化的刺激。使用 ChatGPT 分析,參與者認為動態變形最不自然。研究顯示,deepfakes 能有效模擬自然面部動作,有助於面部感知研究。 PubMed DOI

這項研究探討成年人在忽略一位講者的情況下,如何處理來自兩位不同講者的語音,並利用腦電圖(EEG)測量神經反應。研究重點在於語音的聲學特徵、單字頻率及單字的可預測性,後者是透過GPT-4估算的。結果顯示,英語母語者在分辨目標講者與干擾講者上表現較佳,而視覺任務能減少詞彙處理。當單字可預測性低時,聽眾更專注於聲學特徵,顯示語音感知涉及聽覺與詞彙處理的複雜互動,突顯在挑戰性聆聽環境中的適應性。 PubMed DOI

這項研究探討首次發作精神分裂症(FES)患者的語言異常與腦部語意網絡的關聯。研究者使用大型語言模型(BERT)分析FES患者的語音樣本,發現其語言表達的不可預測性較高。透過功能性磁共振成像(fMRI),研究顯示FES患者在下額回的自我抑制增加,而在後中顳回則減少,這影響了兩者之間的神經連結。研究建議,語言的無序可能源於語意網絡中興奮與抑制的失衡,並指出未來需進一步研究不同語言的情況。 PubMed DOI

這項初步研究探討個體在閱讀時如何處理語意,透過分析眼動和腦電圖(EEG)數據,並結合大型語言模型(LLMs)。研究聚焦於閱讀理解任務,參與者閱讀不同關鍵字相關性的單詞。研究結果顯示,與關鍵字相關的單詞獲得的眼動注視次數顯著高於低相關性單詞,達到60%以上的驗證準確率。這項研究對於理解人類認知及發展閱讀輔助技術具有重要意義。 PubMed DOI

這項研究探討了2023年3月版本的ChatGPT如何回應情感故事,並與人類的情感反應進行比較。三十四位參與者閱讀情感豐富的短篇故事並評估自己的情感反應,而ChatGPT則在十次會議中生成對同樣故事的回應。結果顯示,ChatGPT能識別和分類故事的情感內容,但預測人類情感反應的準確性不高,顯示出AI與人類在情感表達上的差異。了解這些差異對增進與AI的情感互動非常重要。 PubMed DOI