原始文章

心理健康服務的可及性是全球性議題,需求日益增加。對話式人工智慧(AI)被視為潛在解決方案,但建立可靠的虛擬治療師仍具挑戰。本研究探討將AI整合進虛擬實境(VR)自我對話的優缺點,重點在用戶體驗及AI在自我反思和問題解決中的角色。經過兩年半的開發,我們進行了為期三個月的質性研究,結果顯示AI能改善參與者的思維過程,增強自我反思能力,並提升心理諮詢的效果。 PubMed DOI


站上相關主題文章列表

隨著傳統心理健康照護面臨挑戰,數位心理健康工具變得愈加重要。Socrates 2.0是一款基於大型語言模型的工具,旨在透過蘇格拉底式對話來挑戰不切實際的信念,這是認知行為療法的核心技術。該工具配備AI治療師,並透過AI監督者和評估者的反饋來改善對話體驗。初步反饋顯示其表現良好,危險回應率低於1%。研究將於2024年開始,目標是評估其可行性,並收集用戶和臨床醫師的數據。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

這項研究探討生成性人工智慧(GenAI)在心理治療中的應用,特別是透過敘事治療和認知行為治療的外化技術。研究者開發了兩個AI工具:VIVI,用於生成代表病人內心經驗的圖像;DIVI,促進對話角色扮演以互動。這些工具作為「人工第三者」,增強治療師與病人之間的關係,但也面臨同理心缺失和文化偏見等挑戰。為解決這些問題,作者提出了SAFE-AI協議,提供負責任使用AI的指導方針,並鼓勵未來研究評估其在不同族群和環境中的有效性及倫理影響。 PubMed DOI

我們開發了一個新系統,結合人工智慧虛擬代理和三種混合實境視覺化,提升超音波檢查的病人接受度。虛擬助手能與病人自然對話,提供即時解答,增強信任感。三種視覺化方式包括擴增實境(AR)、擴增虛擬環境(AV)和完全沉浸式虛擬實境(VR),讓病人能更舒適地參與檢查。研究結果顯示,病人的信任度和舒適度顯著提升,未來可進一步改善自主醫療體驗。 PubMed DOI

兒童與青少年的心理健康問題是全球重要議題,約50%在14歲前就已出現。儘管投入了資源,仍面臨供應不足、污名化及可及性等挑戰。這篇回顧探討對話式人工智慧(AI)在兒童心理健康的應用,顯示其在解決焦慮和憂鬱等問題上有潛力,能提供心理教育和技能練習。未來研究應聚焦於技術的適宜性、長期效果及公平性,並強調跨學科合作以滿足年輕人的心理健康需求。 PubMed DOI

這項研究開發了一個用大型語言模型打造的聊天機器人,專門幫助年長者練習正念。研究先讓15位年長者用一般正念App,收集他們對語音、個性、互動性和操作便利的意見,再用這些回饋微調ChatGPT,設計出AI正念教練,並邀請年長者參與評估。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

AI治療聊天機器人有助於解決心理資源不足,但也可能帶來依賴或孤獨感。MIT和OpenAI的研究發現,整體上能減少孤單感,但頻繁使用可能有負面影響。評論肯定研究貢獻,也提醒目前證據有限,建議未來要更深入研究。 PubMed DOI

現在越來越多人用AI心理治療聊天機器人,但品質還沒被好好評估。作者開發了CAPE評估架構,從8個面向來看這些機器人。實際評測4款熱門GPT聊天機器人後,發現它們在互動、好用度和對話技巧表現不錯,但在治療專業、風險控管和資料透明度都很弱,尤其隱私和防傷害措施很不足。CAPE能幫助大家判斷品質,顯示這些機器人安全和隱私還有很大進步空間。 PubMed DOI