原始文章

這項研究探討大型語言模型,特別是GPT-4,如何從語言中恢復感知資訊,這在哲學和認知科學中非常重要。研究分析了六個心理物理數據集,發現GPT-4的判斷與人類數據相符,能捕捉到感知表徵,如色輪和音高螺旋。值得注意的是,GPT-4在視覺任務上的表現並未顯著提升,因為它同時接受視覺和語言訓練。此外,研究還檢視了多語言的顏色命名任務,顯示GPT-4能反映英語和俄語之間的變異,突顯語言與感知的複雜關係。 PubMed DOI


站上相關主題文章列表

最新的大型語言模型(LLMs)如GPT-3.5和GPT-4能夠產生類似人類的文字,對社會科學家相當有幫助,可用來建立詞彙相似度的標準。研究中使用GPT-4開發了一個典型性評估標準,並與其他模型相比較,以評估其與人類判斷的相關性。GPT-4在測量文學書籍和美國國會成員推文的典型性方面表現優異,超越了先前的最先進標準,且無需特定數據訓練,顯示了零-shot學習的重大進步。 PubMed DOI

Transformer模型如GPT可預測大腦對語言的反應,並識別影響大腦活動的句子。研究發現句子的驚喜和結構影響大腦反應。結論是神經網絡模型可模擬人類語言並控制大腦區域活動。 PubMed DOI

研究使用GPT-4建立英文心理語言學數據集,發現其語義判斷與人類相關,有時甚至超越人類水準。研究指出GPT-4生成的範疇與人類有系統性差異,對統計模型影響有限。研究討論了使用GPT-4的影響和限制,提及數據質量和有效性問題。數據集包含30,000個GPT-4判斷,可供進一步研究。 PubMed DOI

GPT-3.5是一個大型語言模型,像ChatGPT這樣的對話代理展現出類似人類的回應。研究顯示,這些回應受到各種因素影響,包括隨機錨點、事件可能性、軼聞信息、框架效應和擁有效應。人類也展現出相似的效應,顯示語言可能在造成這些認知偏誤方面扮演一個重要角色。 PubMed DOI

研究發現使用GPT-3.5-turbo和GPT-4模型模擬兒童語言發展,模型表現逐漸提升,接近真實兒童。GPT-4表現與兒童相似,有時更準確。任務、提示和模型選擇影響結果,溫度和性別影響不同。隨著模擬兒童年齡增長,語言複雜度也增加。總結來說,研究顯示語言模型能成功模擬不同角色。 PubMed DOI

最新研究利用語義距離評估口語創造力,發現故事中的感知細節和語義多樣性能預測創意。使用GPT-3增進數據收集,研究顯示人工智慧和人類故事創意評分相似,且呈正相關。未來研究將探討更多可能性。 PubMed DOI

大型語言模型(LLMs)如GPT在認知任務上表現優秀,但對於推斷人類的知覺表徵能力仍有疑問。為了解決這問題,我們提出了一種無監督對齊方法,名為Gromov-Wasserstein最佳運輸(GWOT),來比較相似性結構,不需預先定義的標籤。我們應用此方法比較人類和兩個GPT模型在包含93種顏色的數據集上的顏色相似性結構。結果顯示,顏色-神經典型參與者和GPT-4有良好對齊,與GPT-3.5也有一定程度對應。這方法強化了LLMs與人類知覺的比較,並揭示了詳細的結構對應。 PubMed DOI

這項研究探討了支撐ChatGPT的GPT模型在多語言心理文本分析中的有效性。研究分析了15個數據集,包含47,925條推文和新聞標題,評估GPT在12種語言中檢測情感、情緒等心理構念的能力。結果顯示,GPT的表現超越傳統方法,且隨著版本更新準確性提升,特別是在不常用語言中,具成本效益。研究建議GPT能民主化自動文本分析,促進跨語言研究,並提供範例代碼和教學。 PubMed DOI

這項研究探討了跨感官對應,特別是ChatGPT如何捕捉不同感官特徵的聯結。研究比較了ChatGPT-3.5和ChatGPT-4o在英語、日語和西班牙語中的表現。結果顯示,圓形與甜味和鮮味有強烈關聯,而角形則與苦味、鹹味和酸味相關。ChatGPT-4o的聯結強度優於3.5,且英西語的結果較日語一致。第二組研究發現,ChatGPT-4o在顏色與味道的對應上重現了人類模式,但表現更為明顯且缺乏細緻度。整體而言,這項研究增進了對AI如何反映人類感知的理解。 PubMed DOI

這項研究評估了GPT-4的視覺能力,特別是在視覺素養任務上的表現。結果顯示,GPT-4能識別趨勢和極端值,對視覺設計原則有一定理解,但在沒有原始數據的情況下,對簡單數值檢索表現不佳,且在區分圖表顏色時也有困難,可能出現幻覺和不一致的情況。研究反映了模型的優缺點,並探討了未來在視覺化研究中的潛力。所有相關資料可在提供的連結中找到。 PubMed DOI