原始文章

這項研究探討了跨感官對應,特別是ChatGPT如何捕捉不同感官特徵的聯結。研究比較了ChatGPT-3.5和ChatGPT-4o在英語、日語和西班牙語中的表現。結果顯示,圓形與甜味和鮮味有強烈關聯,而角形則與苦味、鹹味和酸味相關。ChatGPT-4o的聯結強度優於3.5,且英西語的結果較日語一致。第二組研究發現,ChatGPT-4o在顏色與味道的對應上重現了人類模式,但表現更為明顯且缺乏細緻度。整體而言,這項研究增進了對AI如何反映人類感知的理解。 PubMed DOI


站上相關主題文章列表

人工智慧的進步如GPT-3已能生成類似人類的語言。研究比較GPT-3和人類對色彩名詞的回答,發現兩者相似。這顯示GPT-3或許可提供新方式研究人類知覺、知識和語言生成的關係。 PubMed DOI

ChatGPT推出後廣受矚目,人們對這些強大的語言模型相當感興趣,因為它們在各種任務上表現優異。研究發現,雖然ChatGPT通常表現準確,但在飲食建議方面可能會出現錯誤,特別是在食物份量或熱量方面。研究提出改善模型準確性的方法,例如提示進行排除飲食以評估模型之間的差異。 PubMed DOI

研究人員測試人類推理和決策,發現大型語言模型展現出人類直覺思維和錯誤特徵。ChatGPT-3.5和4表現準確,避免常見陷阱。模型使用上下文進行推理,類似人們使用記事本思考,即使沒有支持仍保持準確。研究顯示,心理學方法可揭示大型語言模型能力新見解。 PubMed DOI

研究發現ChatGPT提升使用者快樂感、降低悲傷,性別影響不大但情緒有變化。研究限制在於樣本少、年齡狹窄,未來可擴大研究對象。值得注意的是ChatGPT對問卷生成有積極影響,未來可探討不同語言模型或聊天機器人對不同年齡族群的情緒影響。 PubMed DOI

研究利用新科技預測分子的苦甜味,GPT-4表現準確。透過ChatGPT提取特徵,創造新化合物味道。經過多項測試證實,顯示語言模型在健康和化學領域有應用價值。 PubMed DOI

傳統的飲食評估方式可能不夠客觀且耗時,但現在有人工智慧(AI)解決方案可以自動化這個過程。這項研究使用GPT-4V模型驅動ChatGPT進行飲食評估,表現出在檢測食物和識別菜餚方面的潛力。這個方法不需要特定訓練數據,並且可以根據上下文提示來估計食物份量,提高評估的準確性。 PubMed DOI

大型語言模型(LLMs)如GPT在認知任務上表現優秀,但對於推斷人類的知覺表徵能力仍有疑問。為了解決這問題,我們提出了一種無監督對齊方法,名為Gromov-Wasserstein最佳運輸(GWOT),來比較相似性結構,不需預先定義的標籤。我們應用此方法比較人類和兩個GPT模型在包含93種顏色的數據集上的顏色相似性結構。結果顯示,顏色-神經典型參與者和GPT-4有良好對齊,與GPT-3.5也有一定程度對應。這方法強化了LLMs與人類知覺的比較,並揭示了詳細的結構對應。 PubMed DOI

這項初步研究探討了人類撰寫的讀者來信與ChatGPT生成的來信的可讀性,特別是ChatGPT是否能模仿人類的寫作風格。研究中生成了針對先前文章的反對信,並由八位教授評估這些信件的可讀性。結果顯示,人類撰寫的信件在可讀性上被認為與ChatGPT生成的信件相當,甚至更佳。研究強調,人類的熱情和個人風格對有效溝通仍然至關重要,並呼籲進一步探討AI的潛力與限制。 PubMed DOI

這項研究探討了2023年3月版本的ChatGPT如何回應情感故事,並與人類的情感反應進行比較。三十四位參與者閱讀情感豐富的短篇故事並評估自己的情感反應,而ChatGPT則在十次會議中生成對同樣故事的回應。結果顯示,ChatGPT能識別和分類故事的情感內容,但預測人類情感反應的準確性不高,顯示出AI與人類在情感表達上的差異。了解這些差異對增進與AI的情感互動非常重要。 PubMed DOI

這項研究探討大型語言模型,特別是GPT-4,如何從語言中恢復感知資訊,這在哲學和認知科學中非常重要。研究分析了六個心理物理數據集,發現GPT-4的判斷與人類數據相符,能捕捉到感知表徵,如色輪和音高螺旋。值得注意的是,GPT-4在視覺任務上的表現並未顯著提升,因為它同時接受視覺和語言訓練。此外,研究還檢視了多語言的顏色命名任務,顯示GPT-4能反映英語和俄語之間的變異,突顯語言與感知的複雜關係。 PubMed DOI