原始文章

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI


站上相關主題文章列表

學者一直在爭論語言是否僅透過語言輸入就能學會。近來大型語言模型(LLMs)的進步提供了一個希望的研究途徑。雖然LLMs有限制,但它們顯示出類似人類語法的語言可以在沒有預先存在的語法下被習得,顯示統計學習在語言習得中扮演重要角色。LLMs為認知科學家提供了計算模型,讓他們探索人類語言習得和使用的複雜性。 PubMed DOI

文章討論了大型語言模型(LLMs)在人類語言理解上的潛力,強調應該注重實證研究,而非僅著眼於語言任務表現。文章反駁了一些反對LLMs作為人類語言模型的觀點,並指出最新的實證研究挑戰了這些看法。結論認為現在還為時過早地否定LLMs對於人類語言理解的洞察力。 PubMed DOI

這項研究旨在證明大型語言模型(LLMs)並不適合作為人類語言能力的模型,原因在於存在一些對人類來說不可能的語言,這些語言在LLMs中沒有對應,特別是從神經生物學的角度來看。這個論點基於機器與人類之間的差異,以及能力和表現之間的區別。 PubMed DOI

大型語言模型(LLMs)可以被視為對人類如何處理語言的計算描述,但其解釋取決於這些模型被視為關於人類語言處理的假設。在這個情境中,(心理)語言學理論的角色至關重要,有助於理解人工和生物心靈之間的關係。 PubMed DOI

大型語言模型(LLMs)在推理任務上表現優秀,挑戰傳統模型。雖然有限制,但透過提供範例和擴展網絡等方法,可以增強性能,類似人類思考。分析LLM的錯誤可洞察人類偏見。LLMs帶來希望,從聯想主義角度研究智能和推理,透過認知心理學工具更深入了解人類思維。 PubMed DOI

大型語言模型(LLMs)並不是人類語言處理的精確模型,但它們在模擬語言方面非常有效。這使它們在心理語言學中具有實用、比較和哲學上的價值。 PubMed DOI

這封信討論了大型語言模型(LLMs)與認知科學的關係,強調了資訊理論和統計語言模型對理解人類溝通的重要性。它探討了社會語言學和語言人類學如何豐富了這個框架,提出像是元語用功能和指示性這樣的概念可以增進我們對溝通的理解。作者建議,在大型語言模型和人工智慧時代,跨學科對話在計算語言學、社會語言學、語言人類學以及認知和社會心理學之間至關重要,以促進我們對人類溝通和人類-人工智慧互動的理解。 PubMed DOI

大型語言模型(LLMs)在理解語言方面有進展,但在語言能力和認知方面看法不同。研究評估LLMs的形式語言能力和功能語言能力,人類神經科學顯示這兩種能力依賴不同神經機制。LLMs在形式能力表現優異,但在功能任務上表現不穩,可能需要額外調整或外部模組。為了達到人類般的語言使用,模型可能需掌握兩種能力,並提供專門機制。 PubMed DOI

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI