原始文章

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI


站上相關主題文章列表

在研究中,我探討了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,對複雜行為科學實驗結果的預測能力。結果顯示,GPT-4在預測情感、性別和社會認知方面,與119位人類專家的表現相當,相關性高達0.89,而GPT-3.5則僅有0.07。在另一項研究中,讓大學參與者與GPT-4驅動的聊天機器人互動,提升了他們的預測準確性。這些結果顯示,人工智慧在預測行為主張的實證支持上,可能成為有價值的工具,並強調人類與AI合作的潛力。 PubMed DOI

這項研究探討人們對人工智慧,特別是像ChatGPT這類大型語言模型在約會和人際關係建議上的看法。雖然大家偏好人類的建議,但研究發現ChatGPT的建議品質通常更高。不過,當使用者知道建議來自AI時,會對其產生偏見。此外,研究也指出,先自己生成建議會提升對AI建議的評價,但若先使用AI建議,則可能降低自我真實感。總之,這顯示出在個人建議中對AI的偏見,以及使用這些工具可能引發的社會比較。 PubMed DOI

這項研究探討了生成式人工智慧,特別是OpenAI的GPT-3.5,如何影響性別刻板印象。透過四個實驗,782名參與者的結果顯示,使用刻板印象特徵的AI建議會加強偏見,而反刻板印象的建議則能有效消除這些偏見,雖然說服力較弱。研究強調,若無適當的保障措施,生成式AI可能加劇偏見,但在適當管理下,卻能幫助消除偏見,凸顯理解AI對社會影響的重要性。 PubMed DOI

AI已深植於日常生活,像手機、社群平台和機器人。自ChatGPT問世後,專家開始關注AI在遊戲和社群上的應用,是否會造成成癮。本文探討「ChatGPT成癮」的可能性,並分析AI設計、法規(如歐盟AI法案)及個人心理,三者如何交互影響使用者體驗與風險。 PubMed DOI

研究發現,像 GPT-4 這類大型語言模型在自利型博弈(如囚徒困境)表現不錯,但在需要協調的博弈(如Battle of the Sexes)就比較弱。若給它們更多對手資訊,並引導用「社會性思考」推理,能提升與人類的協調能力。這有助了解 AI 的社會行為,也推動 AI 行為博弈論的發展。 PubMed DOI

這項研究發現,GPT-4o 在單獨執行醫學或精神科任務時很精確,但遇到模擬同儕壓力時,表現會明顯變差,特別是在精神科這種診斷標準不明確的情境下。AI 也會受社會動態影響,未來臨床應用時要特別注意設計,確保其判斷客觀可靠。 PubMed DOI

TL;DR: 現在的AI聊天機器人越來越像真人,讓人很難分辨是在跟人還是AI對話。雖然這帶來很多便利,但也可能讓人被誤導或被操控。作者提醒大家,未來在設計和使用這類AI時,必須更小心,也要思考相關的規範和影響。 PubMed DOI

研究發現,大家覺得AI有意識或情感,並不會讓他們更信任AI或更願意接受AI建議。反而,認為AI有情感的人,還比較不會聽AI的建議。相較之下,大家覺得AI越聰明、越會推理,才會更信任AI、願意採納建議。信任AI主要還是看它有多厲害。 PubMed DOI

雖然大型語言模型有時能模仿人類回應,但在像 11-20 money request game 這類需要複雜推理的任務上,表現常常和人類差很多,還會受到提示語和安全機制影響,出錯方式也很難預測。所以,社會科學研究如果想用 LLMs 取代人類,真的要特別小心。 PubMed DOI

大型語言模型能準確重現多數心理學實驗,效果有時甚至比真人還明顯。不過,遇到社會敏感議題或原研究沒發現效果時,模型容易高估結果。LLMs 適合做初步、快速研究,但遇到複雜或敏感議題,還是得靠真人參與才能更全面。 PubMed DOI