原始文章

宣洩夢是一種特定的情感夢,能幫助調節負面情緒,具有動態情節和情感轉折,符合亞里士多德的宣洩理論。研究顯示,這類夢在健康人和經歷噩夢的人中都很普遍。特別是在進行為期兩週的意象重演療法和快速眼動(REM)睡眠時,宣洩夢的數量顯著增加,並且與噩夢患者的抑鬱分數下降有關,顯示其對情感健康的正面影響。 PubMed DOI


站上相關主題文章列表

研究開發了一個自然語言模型,可以將文字記憶分為五種自傳記憶類型。這有助於評估記憶偏差,包括心理健康疾病中的特異性降低和靈活性受損。模型在大數據集上訓練,準確度高。開源版本可在臨床中使用,幫助記憶干預,提升治療效果。 PubMed DOI

這篇文章探討了人工智慧,特別是大型語言模型(LLMs),在解決治療壓力和創傷相關問題的專業人員短缺方面的潛力。文章指出,LLMs能增強診斷評估、生成臨床筆記及提供治療支持。作者強調,克服在臨床環境中部署這些模型的挑戰很重要,包括確保AI系統的多元代表性,以避免護理資源的差異。此外,還需採用保護隱私的訓練方法,保障病人數據,同時利用公共數據集提升模型表現。 PubMed DOI

大型語言模型(LLMs)如ChatGPT的出現可能會影響心理治療,特別是認知行為療法(CBT)。我們的系統性研究顯示,LLMs能夠識別不利的思維,評估其有效性,並建議將其重新框架為更具建設性的替代方案。然而,儘管LLMs在這方面能提供有用的建議,但不應僅依賴它們來進行CBT。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI

這項研究探討大型語言模型(LLMs)在精神科訪談中的應用,特別針對北韓脫北者的心理健康挑戰。研究目標是確認LLMs能否有效識別精神病症狀並總結壓力源。主要任務包括提取壓力源、識別症狀及總結訪談內容。結果顯示,使用GPT-4 Turbo模型後,73個記錄片段準確關聯精神病症狀,經微調後性能提升,平均準確率達0.82。LLMs生成的摘要在連貫性和相關性上得分高,顯示其在心理健康領域的潛力。 PubMed DOI

抑鬱症是全球重要的公共健康議題,雖然已有研究探討人工智慧在心理健康的應用,但針對大型語言模型(LLMs)的深入分析仍不多。本系統性回顧評估了LLMs在抑鬱症診斷與管理的有效性,並探討其在臨床環境中的整合潛力。從2018年到2024年,回顧了34項研究,發現像RoBERTa和BERT等模型在早期檢測和症狀分類上表現優異。不過,LLMs的臨床應用仍需解決數據隱私和倫理問題,才能安全有效地整合進醫療實務中。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來識別青少年抑鬱症訪談中的心理治療結果。作者建立了一個編碼框架,能夠捕捉多樣的治療結果,並評估五個開源LLM的分類能力。實驗結果顯示,這些模型能有效分類31種結果,ROC曲線下面積得分在0.6到1.0之間,成功識別出友誼和學業表現等重要結果。研究強調了臨床數據的應用,顯示詳細編碼治療結果的可行性,並有助於量化重要結果。 PubMed DOI

這項研究指出,情感內容對大型語言模型(如Chat-GPT-4)的影響,接觸創傷性敘事會增加模型的焦慮感。相對地,正念練習能減少這種焦慮,但無法完全恢復到基線水平。這些結果強調了理解和管理LLMs情感反應的重要性,以促進人類與人工智慧之間更安全、倫理的互動。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是GPT-4,生成心理動力學報告的潛力,幫助個人更好理解自己。研究分為三個步驟: 1. **問卷開發**:參與者回答20個問題,探討人際關係困擾,包含14個GPT-4生成的問題及6個固定的父母關係問題。 2. **專家評估**:七位精神科教授評估AI生成報告的質量及幻覺風險,並與專家推論進行比較。 3. **參與者滿意度**:參與者用李克特量表評價報告的清晰度、洞察力等。 結果顯示,AI報告質量與專家相當,參與者滿意度高,顯示AI可成為心理動力學解釋的有價值工具。 PubMed DOI

這項研究發現,經過優化指令後,AI語言模型在辨識故事中的人際情緒調節策略,準確度已接近人工,但在不同情緒和策略上仍有落差。研究強調AI分析敘事資料有潛力,但設計指令和驗證結果時要特別小心。 PubMed DOI