原始文章

這項研究探討顏色與形容詞的聯結如何形成,特別是在先天失明者中,因為他們沒有視覺經驗。研究指出,顏色如紅色與「熱」、藍色與「冷」的聯結,不僅來自視覺,還透過語言學習而來。分析各種語言資料後,研究發現這些聯結在語言中是統計嵌入的。特別是,虛構文本的嵌入在預測這些聯結上比先進模型如GPT-4更有效,顯示語言上下文在不同感知經驗中共享意義的關鍵角色。 PubMed DOI


站上相關主題文章列表

最新研究利用語義距離評估口語創造力,發現故事中的感知細節和語義多樣性能預測創意。使用GPT-3增進數據收集,研究顯示人工智慧和人類故事創意評分相似,且呈正相關。未來研究將探討更多可能性。 PubMed DOI

大型語言模型(LLMs)如GPT在認知任務上表現優秀,但對於推斷人類的知覺表徵能力仍有疑問。為了解決這問題,我們提出了一種無監督對齊方法,名為Gromov-Wasserstein最佳運輸(GWOT),來比較相似性結構,不需預先定義的標籤。我們應用此方法比較人類和兩個GPT模型在包含93種顏色的數據集上的顏色相似性結構。結果顯示,顏色-神經典型參與者和GPT-4有良好對齊,與GPT-3.5也有一定程度對應。這方法強化了LLMs與人類知覺的比較,並揭示了詳細的結構對應。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

這項研究探討了跨感官對應,特別是ChatGPT如何捕捉不同感官特徵的聯結。研究比較了ChatGPT-3.5和ChatGPT-4o在英語、日語和西班牙語中的表現。結果顯示,圓形與甜味和鮮味有強烈關聯,而角形則與苦味、鹹味和酸味相關。ChatGPT-4o的聯結強度優於3.5,且英西語的結果較日語一致。第二組研究發現,ChatGPT-4o在顏色與味道的對應上重現了人類模式,但表現更為明顯且缺乏細緻度。整體而言,這項研究增進了對AI如何反映人類感知的理解。 PubMed DOI

這項研究探討大型語言模型,特別是GPT-4,如何從語言中恢復感知資訊,這在哲學和認知科學中非常重要。研究分析了六個心理物理數據集,發現GPT-4的判斷與人類數據相符,能捕捉到感知表徵,如色輪和音高螺旋。值得注意的是,GPT-4在視覺任務上的表現並未顯著提升,因為它同時接受視覺和語言訓練。此外,研究還檢視了多語言的顏色命名任務,顯示GPT-4能反映英語和俄語之間的變異,突顯語言與感知的複雜關係。 PubMed DOI

這項研究探討大腦如何處理熟悉的人和地方,透過將記憶轉換成向量表示並使用語言模型分析。參與者提供親近的個體和地點名稱及經歷描述,研究人員收集腦電圖(EEG)數據,並設有控制組。結果顯示,熟悉和著名實體在大腦中的編碼在200-800毫秒內顯著,特別是在顳頂區域和額葉。情境化的語言模型(XLM)在編碼表現上優於簡單模型,顯示語言模型能有效捕捉個人語義知識及其大腦處理過程。 PubMed DOI

這項研究探討大型語言模型(LLMs)在評估多字表達的具體性、價值性和喚起性方面的效果。與早期的人工智慧方法相比,LLMs能更好地捕捉這些表達的細微意義。研究中,GPT-4o在預測情感和感官維度的表現上,與人類評分有強烈相關性(r = .8)。後續研究也顯示其在價值性和喚起性評分上有類似的強相關性,表現優於以往的人工智慧模型。此外,研究提供了一個包含126,397個單字和63,680個多字表達的數據集,幫助研究人員選擇刺激材料。 PubMed DOI

這項研究探討語言與情感理解的關聯,利用大型語言模型(LLMs)來分析語言如何影響AI在新情境中推斷情感。研究人員找出了十四個與人類情感相關的獨特屬性,並發現這些屬性由特定神經元群體表徵。透過操控這些神經元,研究證明情感知識對生成情感推論至關重要。結果顯示,LLMs能透過語言學習情感,而不需依賴感官或運動經驗,語言知識對情感推論非常重要。 PubMed DOI

這項研究探討了閱讀理解的挑戰,這是許多學習者常遇到的困難。研究者利用腦機介面(BCI)技術,預測閱讀的單詞與目標推論單詞的相關性。他們結合腦電圖(EEG)和眼動追蹤數據,運用大型語言模型(LLMs)創建新的閱讀嵌入表示。結果顯示,九名受試者的平均準確率為68.7%,最佳可達71.2%。此外,對BERT模型進行微調後,達到92.7%的準確率。這項研究在增強閱讀技能工具的開發上邁出了重要一步,相關代碼和數據已在GitHub上公開。 PubMed DOI

這項研究探討了兩個大型語言模型(LLMs),BERT-base 和 Llama-2-13b,對複合詞如「snowman」的理解能力。根據心理語言學理論,理解複合詞需拆解成組成部分並連結其隱含意義。研究發現,當複合詞被同義詞替換時,嵌入變化與同義詞的合理性呈反比,這在舊有和新穎複合詞中皆有觀察到。雖然對新穎複合詞的結果較弱,舊的分佈模型表現更佳,但LLMs仍能有效近似複合詞的內部結構,成為建模隱含詞義的有用工具。 PubMed DOI