原始文章

現在越來越多人用AI心理治療聊天機器人,但品質還沒被好好評估。作者開發了CAPE評估架構,從8個面向來看這些機器人。實際評測4款熱門GPT聊天機器人後,發現它們在互動、好用度和對話技巧表現不錯,但在治療專業、風險控管和資料透明度都很弱,尤其隱私和防傷害措施很不足。CAPE能幫助大家判斷品質,顯示這些機器人安全和隱私還有很大進步空間。 PubMed DOI


站上相關主題文章列表

這項系統性回顧分析了137篇經過同行評審的研究,探討生成式人工智慧聊天機器人在健康建議上的表現。結果顯示,研究報告標準差異大,主要集中在外科、醫學和基層醫療。大部分研究針對治療、診斷或疾病預防,但幾乎全數(99.3%)使用的都是無法訪問的封閉源碼大型語言模型,且對其特徵描述不足。此外,多數研究未提及提示工程,只有少數討論倫理、法規及病人安全。這些結果顯示需改善報告標準,建議開發聊天機器人評估報告工具(CHART),以提升臨床評估與整合的效果。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

這項研究評估了針對青少年心理健康的對話代理(CAs)或聊天機器人的現狀。研究人員找到39篇相關的同行評審文章,發現許多CAs主要是基於專家知識設計,缺乏青少年的意見,且技術仍在早期階段,安全性不足。青少年使用者對CAs在討論敏感話題的可用性表示欣賞,但覺得內容有限。大部分研究未解決用戶數據的隱私問題。這項回顧強調了研究人員、青少年和專家的合作必要性,並呼籲在設計中重視隱私與安全。總體而言,仍需更多研究來驗證這些工具的有效性。 PubMed DOI

心理健康服務的可及性是全球性議題,需求日益增加。對話式人工智慧(AI)被視為潛在解決方案,但建立可靠的虛擬治療師仍具挑戰。本研究探討將AI整合進虛擬實境(VR)自我對話的優缺點,重點在用戶體驗及AI在自我反思和問題解決中的角色。經過兩年半的開發,我們進行了為期三個月的質性研究,結果顯示AI能改善參與者的思維過程,增強自我反思能力,並提升心理諮詢的效果。 PubMed DOI

這篇論文提出一個實用架構,把AI整合到數位心理健康治療,將治療分成五大部分:治療單元、決策者、敘事者、支持者和治療師。AI能個人化內容、調整治療流程、產生連貫敘事、提供自動化協助和互動治療,讓治療更有效、易擴展,也有助於提升治療品質和成效。 PubMed DOI

這篇系統性回顧發現,生成式AI像ChatGPT在心理健康領域有潛力,但目前在診斷、文化敏感度和情感互動上還有不少限制。多數研究評估方式較簡單,無法全面反映AI實力。使用者對信任度和情感連結也有疑慮。未來需要更進階的評估和長期研究,才能真正發揮AI在心理健康照護的價值。 PubMed DOI

這項研究發現,經過提示優化的AI聊天機器人(像Alice)在提供正確、準確和安全的健康資訊上,比標準版ChatGPT表現更好。不過,所有AI偶爾還是會出錯,所以只能當作輔助工具,不能取代醫療專業人員。未來若要廣泛應用,還需要持續改進並由人員監督。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

AI心理健康聊天機器人發展很快,但因缺乏監管和評估,安全性和有效性引發疑慮。文章建議建立標準化評估框架,強調倫理、循證、對話品質和安全。實施上有挑戰,如評估複雜對話和專家監督。作者呼籲開發者優先考量使用者安全,並讓消費者參與評估。 PubMed DOI