原始文章

隨著傳統心理健康照護面臨挑戰,數位心理健康工具變得愈加重要。Socrates 2.0是一款基於大型語言模型的工具,旨在透過蘇格拉底式對話來挑戰不切實際的信念,這是認知行為療法的核心技術。該工具配備AI治療師,並透過AI監督者和評估者的反饋來改善對話體驗。初步反饋顯示其表現良好,危險回應率低於1%。研究將於2024年開始,目標是評估其可行性,並收集用戶和臨床醫師的數據。 PubMed DOI


站上相關主題文章列表

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

這項研究探討生成性人工智慧(GenAI)在心理治療中的應用,特別是透過敘事治療和認知行為治療的外化技術。研究者開發了兩個AI工具:VIVI,用於生成代表病人內心經驗的圖像;DIVI,促進對話角色扮演以互動。這些工具作為「人工第三者」,增強治療師與病人之間的關係,但也面臨同理心缺失和文化偏見等挑戰。為解決這些問題,作者提出了SAFE-AI協議,提供負責任使用AI的指導方針,並鼓勵未來研究評估其在不同族群和環境中的有效性及倫理影響。 PubMed DOI

生成式人工智慧(GenAI)在醫療服務中有潛力,尤其是在臨床環境。不過,實際臨床的複雜性需要謹慎且基於證據的方法來確保AI的安全與有效性。本研究將系統性評估四個知名的GenAI模型(Claude 2、Gemini Pro、GPT-4.0及一個自訂的GPT-4.0聊天機器人),並針對臨床微生物學和傳染病領域進行分析。評估將由兩組專業醫師進行,使用5點李克特量表來檢視回應的事實一致性、全面性、一致性及潛在醫療危害。研究將提供GenAI在臨床應用的見解,並強調制定倫理指導方針的重要性。 PubMed DOI

心理健康服務的可及性是全球性議題,需求日益增加。對話式人工智慧(AI)被視為潛在解決方案,但建立可靠的虛擬治療師仍具挑戰。本研究探討將AI整合進虛擬實境(VR)自我對話的優缺點,重點在用戶體驗及AI在自我反思和問題解決中的角色。經過兩年半的開發,我們進行了為期三個月的質性研究,結果顯示AI能改善參與者的思維過程,增強自我反思能力,並提升心理諮詢的效果。 PubMed DOI

這項初步研究測試用GPT-4打造的聊天機器人MICA,運用動機式晤談技巧協助18到25歲年輕人討論酒精使用。結果顯示MICA安全無虞,經調整後MI技巧表現更好,使用者也覺得很方便。MICA能有效促進行為改變的討論,但還需要更大規模的研究來確認對飲酒行為的實際影響。 PubMed DOI

這項研究開發了一個符合HIPAA規範的AI聊天機器人,讓民眾能用簡訊進行物質使用障礙篩檢和提問。系統運用自然語言處理與機器學習,提供專業資訊並加密保護健康資料,提升病患獲得SUD照護的便利性,同時兼顧醫療AI的技術與法規需求。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

AI治療聊天機器人有助於解決心理資源不足,但也可能帶來依賴或孤獨感。MIT和OpenAI的研究發現,整體上能減少孤單感,但頻繁使用可能有負面影響。評論肯定研究貢獻,也提醒目前證據有限,建議未來要更深入研究。 PubMed DOI