原始文章

這篇論文提出COMPASS架構,運用大型語言模型,能自動從心理治療會談逐字稿評估治療關係品質,不用再靠傳統問卷。COMPASS分析950多場不同精神疾病的會談,能追蹤病人和治療師互動變化,找出各疾病特有的對話模式,並提供具體、可解釋的建議,協助治療師即時提升治療效果。 PubMed DOI


站上相關主題文章列表

這篇文章探討了人工智慧,特別是大型語言模型(LLMs),在解決治療壓力和創傷相關問題的專業人員短缺方面的潛力。文章指出,LLMs能增強診斷評估、生成臨床筆記及提供治療支持。作者強調,克服在臨床環境中部署這些模型的挑戰很重要,包括確保AI系統的多元代表性,以避免護理資源的差異。此外,還需採用保護隱私的訓練方法,保障病人數據,同時利用公共數據集提升模型表現。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動摘要心理健康諮詢會議的應用,旨在解決手動摘要對諮詢過程的影響。研究人員建立了一個名為「心理健康諮詢-組件引導對話摘要」的數據集,包含191個諮詢會議的摘要。他們評估了11個先進的LLM,結果顯示像MentalLlama、Mistral和MentalBART等模型在摘要生成上表現不錯,特別是Mistral獲得專家高評價。然而,所有模型在機會成本和感知有效性上仍有不足,顯示尚未適合臨床使用,需進一步精煉和驗證。 PubMed DOI

這項研究探討大型語言模型(LLMs)在質性主題分析中的應用,並將其表現與人類分析師在精神科環境中的表現進行比較。研究使用了一個700億參數的開源LLM,並透過先進的提示工程,能在幾分鐘內從半結構性訪談中生成主題。分析結果顯示,LLM生成的主題與人類創建的主題之間的相似性中等到顯著,顯示LLMs在質性研究中有潛力,能提升研究的可及性。 PubMed DOI

大型語言模型(LLMs)如ChatGPT的出現可能會影響心理治療,特別是認知行為療法(CBT)。我們的系統性研究顯示,LLMs能夠識別不利的思維,評估其有效性,並建議將其重新框架為更具建設性的替代方案。然而,儘管LLMs在這方面能提供有用的建議,但不應僅依賴它們來進行CBT。 PubMed DOI

這項研究探討大型語言模型(LLMs)在精神科訪談中的應用,特別針對北韓脫北者的心理健康挑戰。研究目標是確認LLMs能否有效識別精神病症狀並總結壓力源。主要任務包括提取壓力源、識別症狀及總結訪談內容。結果顯示,使用GPT-4 Turbo模型後,73個記錄片段準確關聯精神病症狀,經微調後性能提升,平均準確率達0.82。LLMs生成的摘要在連貫性和相關性上得分高,顯示其在心理健康領域的潛力。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來識別青少年抑鬱症訪談中的心理治療結果。作者建立了一個編碼框架,能夠捕捉多樣的治療結果,並評估五個開源LLM的分類能力。實驗結果顯示,這些模型能有效分類31種結果,ROC曲線下面積得分在0.6到1.0之間,成功識別出友誼和學業表現等重要結果。研究強調了臨床數據的應用,顯示詳細編碼治療結果的可行性,並有助於量化重要結果。 PubMed DOI

這項研究探討利用人工智慧分析開放式語言回應,來增強青少年網路認知行為療法的心理健康評估。44名瑞典青少年在介入前後完成焦慮和憂鬱量表及三個開放式問題,研究發現語言分析能顯示心理健康的顯著改善,與傳統量表結果相似。這種方法不僅有效且準確,還能提供更深入的見解,解決傳統問卷的理解問題。研究建議將人工智慧語言分析整合進心理健康評估中,作為補充工具。 PubMed DOI

這項研究用大型語言模型分析德文心理治療逐字稿,偵測28種情緒,並預測病人症狀嚴重度和治療聯盟。模型在情緒分類表現普通,但預測症狀嚴重度效果不錯(r=.50),預測治療聯盟則中等(r=.20)。認可、憤怒、恐懼與症狀嚴重度有關,好奇、困惑、驚訝則與治療聯盟有關。結果顯示正負向情緒都很重要,未來應加強情緒資料集並納入更多語境和感官資訊。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究發現,LLM像ChatGPT-4o能快速抓到結構和後勤主題,但人類分析師更能掌握情感和心理細節。結合兩者分析,有助提升健康研究的廣度和深度。作者建議未來可採用這種混合方式。 PubMed DOI