原始文章

這篇論文提出COMPASS架構,運用大型語言模型,能自動從心理治療會談逐字稿評估治療關係品質,不用再靠傳統問卷。COMPASS分析950多場不同精神疾病的會談,能追蹤病人和治療師互動變化,找出各疾病特有的對話模式,並提供具體、可解釋的建議,協助治療師即時提升治療效果。 PubMed DOI


站上相關主題文章列表

這項研究探討利用人工智慧分析開放式語言回應,來增強青少年網路認知行為療法的心理健康評估。44名瑞典青少年在介入前後完成焦慮和憂鬱量表及三個開放式問題,研究發現語言分析能顯示心理健康的顯著改善,與傳統量表結果相似。這種方法不僅有效且準確,還能提供更深入的見解,解決傳統問卷的理解問題。研究建議將人工智慧語言分析整合進心理健康評估中,作為補充工具。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

這項研究用大型語言模型分析德文心理治療逐字稿,偵測28種情緒,並預測病人症狀嚴重度和治療聯盟。模型在情緒分類表現普通,但預測症狀嚴重度效果不錯(r=.50),預測治療聯盟則中等(r=.20)。認可、憤怒、恐懼與症狀嚴重度有關,好奇、困惑、驚訝則與治療聯盟有關。結果顯示正負向情緒都很重要,未來應加強情緒資料集並納入更多語境和感官資訊。 PubMed DOI

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究發現,LLM像ChatGPT-4o能快速抓到結構和後勤主題,但人類分析師更能掌握情感和心理細節。結合兩者分析,有助提升健康研究的廣度和深度。作者建議未來可採用這種混合方式。 PubMed DOI

這項研究提出 ABCD 系統,利用兩個 AI(AI 臨床醫師和 AI 失語症患者)自動模擬語言治療對話,省時又省錢,不需真人參與。系統用 GPT-4o 和語音工具打造,zero-shot 提示效果最好。ABCD 有助於開發和測試失語症治療 AI,突破臨床研究瓶頸,未來應用潛力大。 PubMed DOI

現在越來越多人用AI心理治療聊天機器人,但品質還沒被好好評估。作者開發了CAPE評估架構,從8個面向來看這些機器人。實際評測4款熱門GPT聊天機器人後,發現它們在互動、好用度和對話技巧表現不錯,但在治療專業、風險控管和資料透明度都很弱,尤其隱私和防傷害措施很不足。CAPE能幫助大家判斷品質,顯示這些機器人安全和隱私還有很大進步空間。 PubMed DOI

這項研究發現,GPT-4在分析癌症病患與醫療人員的對話內容時,和人類專家有高度到中度的一致性,像是判斷有無討論症狀、誰先提起、以及建議內容等。雙方意見分歧的情況不多,且有詳細分類。結果顯示,LLM有潛力協助提升醫療溝通與照護品質。 PubMed DOI

這項研究用大型語言模型(LLM)自動評分治療逐字稿中的心理構念(如病人參與度),取代傳統人工評分。實驗用 Llama 3.1 8B 分析 1,131 場治療,結果顯示 LLM 評分具高信度與效度,且與治療結果高度相關。這方法不僅減輕參與者負擔、保護隱私,也為心理評估帶來新可能。 PubMed DOI