原始文章

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI


站上相關主題文章列表

研究人員測試人類推理和決策,發現大型語言模型展現出人類直覺思維和錯誤特徵。ChatGPT-3.5和4表現準確,避免常見陷阱。模型使用上下文進行推理,類似人們使用記事本思考,即使沒有支持仍保持準確。研究顯示,心理學方法可揭示大型語言模型能力新見解。 PubMed DOI

GPT-3.5是一個大型語言模型,像ChatGPT這樣的對話代理展現出類似人類的回應。研究顯示,這些回應受到各種因素影響,包括隨機錨點、事件可能性、軼聞信息、框架效應和擁有效應。人類也展現出相似的效應,顯示語言可能在造成這些認知偏誤方面扮演一個重要角色。 PubMed DOI

研究探討了人工智慧聊天機器人,特別是大型語言模型(LLMs),如何回應情感提示。研究發現,像ChatGPT-4這樣更先進的LLMs在與風險和利他行為相關的決策中表現出不同的模式。儘管AI沒有情感,但回應可能受情感提示影響。 PubMed DOI

研究探討人們對道德或技術主題文字的看法,比較人類作者和ChatGPT。結果顯示,人們普遍對ChatGPT的評分較低,顯示對演算法的不信任。這暗示使用大型語言模型可能會有潛在影響。 PubMed DOI

研究指出,ChatGPT 對道德決策有影響,但不是所有決策都受影響,尤其是負面情緒的。ChatGPT 的建議會影響超越道德判斷的決策,但不會在推薦低回報時有影響。擁有較高無效恐懼的人更容易受專家和 AI 建議影響,但信任 AI 不是關鍵。 PubMed DOI

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

在研究中,我探討了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,對複雜行為科學實驗結果的預測能力。結果顯示,GPT-4在預測情感、性別和社會認知方面,與119位人類專家的表現相當,相關性高達0.89,而GPT-3.5則僅有0.07。在另一項研究中,讓大學參與者與GPT-4驅動的聊天機器人互動,提升了他們的預測準確性。這些結果顯示,人工智慧在預測行為主張的實證支持上,可能成為有價值的工具,並強調人類與AI合作的潛力。 PubMed DOI

這項研究探討大型語言模型(LLM)如ChatGPT對研究生情感和心理健康的影響。透過對23名大學生的訪談,結果顯示雖然使用者欣賞這些AI工具的功能,但也面臨焦慮、依賴和對未來的悲觀等負面影響。研究指出,使用LLM的好處與情感成本並存,顯示對學生心理健康的影響具有「雙刃劍」的特性。 PubMed DOI

這項研究探討人們對人工智慧,特別是像ChatGPT這類大型語言模型在約會和人際關係建議上的看法。雖然大家偏好人類的建議,但研究發現ChatGPT的建議品質通常更高。不過,當使用者知道建議來自AI時,會對其產生偏見。此外,研究也指出,先自己生成建議會提升對AI建議的評價,但若先使用AI建議,則可能降低自我真實感。總之,這顯示出在個人建議中對AI的偏見,以及使用這些工具可能引發的社會比較。 PubMed DOI

這項研究探討了生成式人工智慧,特別是OpenAI的GPT-3.5,如何影響性別刻板印象。透過四個實驗,782名參與者的結果顯示,使用刻板印象特徵的AI建議會加強偏見,而反刻板印象的建議則能有效消除這些偏見,雖然說服力較弱。研究強調,若無適當的保障措施,生成式AI可能加劇偏見,但在適當管理下,卻能幫助消除偏見,凸顯理解AI對社會影響的重要性。 PubMed DOI