原始文章

這項研究發現,ChatGPT 上癮主要是因為衝動性思考,尤其當衝動與反思失衡時更明顯。獨立自我觀的人較容易衝動使用,互賴自我觀的人則較會思考,但即使反思也難完全避免上癮。這提醒我們生成式 AI 可能帶來負面認知影響,並提供建立健康數位習慣的參考。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT使用者的心理動機,基於環境心理學的服務空間概念。分析了ChatGPT的電子服務空間要素,如安全性、視覺吸引力、娛樂價值等,如何影響使用者的情緒和決策。針對美國使用者的調查顯示,負面情緒受多個因素影響,而正面情緒則與視覺吸引力、客製化等有關。這些情緒對使用者滿意度和持續使用意圖至關重要,研究結果對數位環境心理學及AI服務的理解提供了重要見解。 PubMed DOI

這項研究探討了ChatGPT對學術寫作的創造力與抄襲影響,透過半結構式訪談收集了來自不同國家的10位研究者的看法。分析後發現五個主要主題:機會、人類協助、引發思考、省時和負面態度。雖然大多數研究者對ChatGPT持正面看法,但也擔心寫作技能下降和抄襲問題。他們認為,創造力可能會演變為使用像ChatGPT的工具,並強調需對其使用進行規範與承認。 PubMed DOI

這項研究調查了在ChatGPT推出的前11個月內,1,376名德國公民使用這個AI對話代理的影響因素。主要發現包括:年輕人和高教育程度者使用量較高,性別和收入影響不大;全職工作和孩子數量多會成為使用障礙;社交媒體使用頻繁者參與度較高;政治知識和自我效能與使用活動有關,但線上辯論和自我效能呈負相關;認知需求和溝通技巧則促進參與。研究強調解決數位鴻溝和提升數位素養的重要性,特別是對服務不足的群體。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

生成式 AI 聊天機器人如 ChatGPT 逐漸受到關注,並引發了「ChatGPT 成癮」的討論。雖然有研究提出量表來衡量這種成癮,但專家提醒,若沒有明確證據顯示使用會造成負面影響,就不應輕易標籤為成癮。目前的研究尚未提供強有力的支持,因此過度病理化這種行為可能導致不必要的治療和監管。適度且有意識地使用聊天機器人仍然是有益的。 PubMed DOI

本研究探討了ChatGPT推出後,使用者與MIBot(幫助戒煙的聊天機器人)互動的變化。參與者分為兩組:一組在ChatGPT發布前互動,另一組則在六個月後互動。結果顯示,後者對MIBot的滿意度顯著下降,尤其在同理心方面。不過,對ChatGPT熟悉的使用者提供了更長的回應,並在戒煙意願上有更大提升。這顯示先進AI技術改變了使用者期望,開發者需隨之調整。 PubMed DOI

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI

AI已深植於日常生活,像手機、社群平台和機器人。自ChatGPT問世後,專家開始關注AI在遊戲和社群上的應用,是否會造成成癮。本文探討「ChatGPT成癮」的可能性,並分析AI設計、法規(如歐盟AI法案)及個人心理,三者如何交互影響使用者體驗與風險。 PubMed DOI

這項研究分析28位碩士生用ChatGPT寫論文的經驗,發現學生常因社會和科技壓力感到非用不可,卻又擔心學術誠信,產生認知失調。學生會調整提問方式、提供資料、避免不當行為,並重視誠信。研究建議學校應加強指引,協助學生正確使用AI。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI