原始文章

宣洩夢是一種特定的情感夢,能幫助調節負面情緒,具有動態情節和情感轉折,符合亞里士多德的宣洩理論。研究顯示,這類夢在健康人和經歷噩夢的人中都很普遍。特別是在進行為期兩週的意象重演療法和快速眼動(REM)睡眠時,宣洩夢的數量顯著增加,並且與噩夢患者的抑鬱分數下降有關,顯示其對情感健康的正面影響。 PubMed DOI


站上相關主題文章列表

這項研究探討早期不適應性圖式(EMSs)與線上心理健康社群(OMHCs)中的心理健康問題之間的關聯。分析了29,329則貼文,發現特定EMSs與心理健康問題有顯著關聯,如焦慮與受害脆弱性、憂鬱與人際需求未滿足等。研究指出,憂鬱、人格障礙和PTSD與多個EMSs相關,顯示其複雜性。研究強調理解EMSs的重要性,以便為線上支持者開發針對性的AI介入方案。 PubMed DOI

這項研究探討生成性人工智慧(GenAI)在心理治療中的應用,特別是透過敘事治療和認知行為治療的外化技術。研究者開發了兩個AI工具:VIVI,用於生成代表病人內心經驗的圖像;DIVI,促進對話角色扮演以互動。這些工具作為「人工第三者」,增強治療師與病人之間的關係,但也面臨同理心缺失和文化偏見等挑戰。為解決這些問題,作者提出了SAFE-AI協議,提供負責任使用AI的指導方針,並鼓勵未來研究評估其在不同族群和環境中的有效性及倫理影響。 PubMed DOI

這項研究指出,情感內容對大型語言模型(如Chat-GPT-4)的影響,接觸創傷性敘事會增加模型的焦慮感。相對地,正念練習能減少這種焦慮,但無法完全恢復到基線水平。這些結果強調了理解和管理LLMs情感反應的重要性,以促進人類與人工智慧之間更安全、倫理的互動。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是GPT-4,生成心理動力學報告的潛力,幫助個人更好理解自己。研究分為三個步驟: 1. **問卷開發**:參與者回答20個問題,探討人際關係困擾,包含14個GPT-4生成的問題及6個固定的父母關係問題。 2. **專家評估**:七位精神科教授評估AI生成報告的質量及幻覺風險,並與專家推論進行比較。 3. **參與者滿意度**:參與者用李克特量表評價報告的清晰度、洞察力等。 結果顯示,AI報告質量與專家相當,參與者滿意度高,顯示AI可成為心理動力學解釋的有價值工具。 PubMed DOI

這項研究發現,經過優化指令後,AI語言模型在辨識故事中的人際情緒調節策略,準確度已接近人工,但在不同情緒和策略上仍有落差。研究強調AI分析敘事資料有潛力,但設計指令和驗證結果時要特別小心。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

這項研究用大型語言模型分析德文心理治療逐字稿,偵測28種情緒,並預測病人症狀嚴重度和治療聯盟。模型在情緒分類表現普通,但預測症狀嚴重度效果不錯(r=.50),預測治療聯盟則中等(r=.20)。認可、憤怒、恐懼與症狀嚴重度有關,好奇、困惑、驚訝則與治療聯盟有關。結果顯示正負向情緒都很重要,未來應加強情緒資料集並納入更多語境和感官資訊。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究用大型語言模型(LLMs)自動從電子病歷的臨床紀錄辨識失眠,準確度高於傳統BERT模型(F1分數93.0和85.7)。這個方法不只偵測失眠效果好,也有潛力應用在其他容易被忽略的疾病診斷上。 PubMed DOI

本研究開發了一套專為失眠症設計的智能eCBT-I對話系統,結合CBT-I知識圖譜與大型語言模型。我們比較八種主流LLM及三種調適方法,找出各模型最佳組合,其中Qwen2-7b(Freeze)表現最優。這證明專業知識能有效融入LLM,為醫療AI在資料有限下的應用提供新方向。 PubMed DOI