原始文章

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI


站上相關主題文章列表

研究使用ChatGPT協助輔導員與患者互動,並比較其回應與人類內容。整合AI技術改善心理健康干預,框架準確率達93.76%,ChatGPT回應有禮且簡潔。AI內容可增進傳統干預方法,提升醫療系統患者照護和輔導實踐。 PubMed DOI

本研究探討ChatGPT作為焦慮症患者心理治療師的有效性與可接受性。透過4週的介入,399名來自沙烏地阿拉伯的參與者評估了AI心理治療的經驗。結果顯示,91.2%的使用者認為ChatGPT準確,89.6%有治療經驗,36.1%報告嚴重焦慮。參與者對隱私和倫理的擔憂也被提及。城市居民和女性對ChatGPT的評價較高。結論是,ChatGPT有潛力補充傳統心理治療,改善心理健康護理的可及性。 PubMed DOI

全球心理健康危機顯示出對可及且有效介入措施的需求,生成式AI聊天機器人如ChatGPT逐漸成為解決方案。針對十九位使用者的訪談研究顯示,他們在使用這些聊天機器人時感受到高參與感和正面效果,包括改善人際關係及從創傷中癒合。研究中識別出四個主題:情感避風港、洞察指導、連結的喜悅,以及AI與人類治療的比較。雖然有些主題與傳統聊天機器人相符,但生成式AI的特性也顯現出來。參與者呼籲改善安全措施及人性化的記憶能力,顯示生成式AI在心理健康支持上有潛力,但仍需進一步研究其安全性與有效性。 PubMed DOI

這項研究探討心理健康專家對大型語言模型(如ChatGPT)整合進心理健康實務的看法,透過對21位中國專業人士的訪談,發現四個主要主題: 1. **實務改革**:LLMs可提升心理健康服務的可及性與效率。 2. **科技鴻溝**:專家擔心誤導資訊及使用者風險。 3. **整合條件**:需培訓、制定指導方針,並保持透明。 4. **未來期望**:希望合理分配工作,持續改善技術。 研究顯示LLMs在心理健康領域的潛力與挑戰,為機構提供實施與管理的建議。 PubMed DOI

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是GPT-4,生成心理動力學報告的潛力,幫助個人更好理解自己。研究分為三個步驟: 1. **問卷開發**:參與者回答20個問題,探討人際關係困擾,包含14個GPT-4生成的問題及6個固定的父母關係問題。 2. **專家評估**:七位精神科教授評估AI生成報告的質量及幻覺風險,並與專家推論進行比較。 3. **參與者滿意度**:參與者用李克特量表評價報告的清晰度、洞察力等。 結果顯示,AI報告質量與專家相當,參與者滿意度高,顯示AI可成為心理動力學解釋的有價值工具。 PubMed DOI

這項研究發現,ChatGPT-4在分析日文質性訪談時,對於簡單、描述性的主題表現跟人類差不多,但遇到有文化或情感層面的議題就明顯不如人類。AI適合協助基礎主題辨識,但要深入解讀還是得靠專家。研究也提醒,AI在非英文環境還有進步空間,使用時要注意倫理和法律問題。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,ChatGPT在急性精神科危機的德語諮詢中,獲得「有幫助」和「適切」等正面評價,但在「真實感」上表現較差,尤其是精神病案例。多數專業人員認為LLM未來在醫療有潛力,但對其風險仍有疑慮,需更多實際病人研究才能安全應用。 PubMed DOI

這項研究發現,ChatGPT能給家長清楚又實用的ADHD行為訓練建議,但部分資料過時、內容也不夠深入。AI工具雖然能協助照顧者學習,但臨床應用前,建議再加強正確性和細節。 PubMed DOI