原始文章

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI


站上相關主題文章列表

像ChatGPT這樣的人工智慧應用對於心理健康支持有著正面和負面的影響。正面因素包括心理教育、情緒支持和危機干預,而負面因素則包括道德考量和有限的評估能力。解決人工智慧在心理健康支持中的道德、可靠性、準確性和法律挑戰是至關重要的,以確保人工智慧在心理健康支持中的安全和有效使用。 PubMed DOI

研究使用ChatGPT協助輔導員與患者互動,並比較其回應與人類內容。整合AI技術改善心理健康干預,框架準確率達93.76%,ChatGPT回應有禮且簡潔。AI內容可增進傳統干預方法,提升醫療系統患者照護和輔導實踐。 PubMed DOI

大型語言模型(LLMs)如ChatGPT的出現可能會影響心理治療,特別是認知行為療法(CBT)。我們的系統性研究顯示,LLMs能夠識別不利的思維,評估其有效性,並建議將其重新框架為更具建設性的替代方案。然而,儘管LLMs在這方面能提供有用的建議,但不應僅依賴它們來進行CBT。 PubMed DOI

本研究探討ChatGPT作為焦慮症患者心理治療師的有效性與可接受性。透過4週的介入,399名來自沙烏地阿拉伯的參與者評估了AI心理治療的經驗。結果顯示,91.2%的使用者認為ChatGPT準確,89.6%有治療經驗,36.1%報告嚴重焦慮。參與者對隱私和倫理的擔憂也被提及。城市居民和女性對ChatGPT的評價較高。結論是,ChatGPT有潛力補充傳統心理治療,改善心理健康護理的可及性。 PubMed DOI

這項研究探討了AI聊天機器人ChatGPT 3.0與傳統正念療法對老年人孤獨感和憂鬱症的影響。研究在杭州的兩家護理院進行,為期八週,參與者參加了團體正念課程及與ChatGPT的一對一互動。結果顯示,正念組的緊張感顯著減少,但兩者在情感結果上無明顯差異。焦點小組討論揭示了對AI和正念的經驗、實驗效果的態度及未來發展的期望。研究建議未來可將AI與傳統方法結合,以提升使用者體驗。 PubMed DOI

全球心理健康危機顯示出對可及且有效介入措施的需求,生成式AI聊天機器人如ChatGPT逐漸成為解決方案。針對十九位使用者的訪談研究顯示,他們在使用這些聊天機器人時感受到高參與感和正面效果,包括改善人際關係及從創傷中癒合。研究中識別出四個主題:情感避風港、洞察指導、連結的喜悅,以及AI與人類治療的比較。雖然有些主題與傳統聊天機器人相符,但生成式AI的特性也顯現出來。參與者呼籲改善安全措施及人性化的記憶能力,顯示生成式AI在心理健康支持上有潛力,但仍需進一步研究其安全性與有效性。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是ChatGPT 3.5和ChatGPT-4,在心智理論(ToM)方面的能力,並與自閉症譜系障礙(ASD)及典型發展(TD)個體進行比較。研究發現: 1. 兩個LLMs在理解心理狀態的準確性上高於ASD組,但ChatGPT-3.5在複雜心理狀態上表現不佳。 2. ChatGPT-3.5在情感狀態識別上低於TD個體,尤其是負面情緒,但與ASD組相似。ChatGPT-4有所改善,但仍難以識別悲傷和憤怒。 3. 兩者的對話風格冗長且重複,類似高功能自閉症個體。 研究顯示LLMs在理解心理和情感狀態的潛力及其局限性,對ASD的臨床應用有影響。 PubMed DOI

這項研究評估了四個大型語言模型(LLMs)在心理健康診斷和治療的能力,包括Gemini 2.0、Claude 3.5、ChatGPT-3.5和ChatGPT-4。主要發現顯示,ChatGPT-4在診斷憂鬱症和PTSD方面優於人類專業人士,但在複雜案例如早期精神分裂症的準確率僅55%。LLMs提供的治療建議較為多樣,但專業人士則偏好具體的精神科諮詢。總體來看,雖然LLMs能協助診斷和治療計畫,但在複雜情況下仍需專業監督。 PubMed DOI

這篇評論指出ChatGPT在數位心理健康介入中的角色不斷演變,特別是在臨床心理學領域。隨著2023年和2024年的進步,GPT-3.5和GPT-4.0在解讀情感、識別憂鬱症及處理治療啟動因素上展現了有效性。研究顯示,對話式人工智慧能減少心理健康照護中的障礙,如污名化和可及性問題。不過,評論也提醒我們要謹慎,因為不同模型的熟練度各異,整合人工智慧進心理健康實務中既有潛力也面臨挑戰。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4o、Claude 3.5 Sonnet 和 Gemini 1.5 Pro—在自殺意念反應評估的能力。結果顯示,這三個模型的反應評價普遍比專家自殺學者更適當,尤其是ChatGPT的評分差異最大。異常值分析發現,Gemini的偏差比例最高。整體來看,ChatGPT的表現相當於碩士級輔導員,Claude超過受訓心理健康專業人士,而Gemini則類似未受訓的學校工作人員。這顯示LLMs在評估反應時可能有偏向,但部分模型的表現已達到或超過專業水平。 PubMed DOI