原始文章

在數位心理健康領域,聊天機器人的使用越來越普遍,能有效解決心理健康專業人員不足的問題,並提供可及的支持。研究分析了2015至2024年間的261篇相關文章,發現這方面的研究每年增長46.19%。美國在貢獻上居首,其次是英國、澳洲、中國和法國。法國的國家科學研究中心是最具影響力的機構,而《醫學網路研究期刊》則是主要的出版來源。研究突顯了聊天機器人在心理健康支持中的潛力,並提供了對專業人員和開發者的寶貴見解。 PubMed DOI


站上相關主題文章列表

ChatGPT的出現讓護理領域的研究顯著增加,顯示其在臨床護理中的潛力。儘管初步結果令人鼓舞,但缺乏全面的分析。本研究旨在描繪ChatGPT在護理的發展趨勢,並建立整合框架。我們與圖書館員合作,分析了81篇相關文章,發現研究數量持續增長,主要期刊為《歐洲心血管護理期刊》。美國、英國和中國是主要貢獻者,研究主題包括人工智慧應用和護理教育。雖然有國際合作,但作者間的合作仍有限,強調護理人員需共同探索ChatGPT的應用。 PubMed DOI

這項研究探討了HoMemeTown Dr. CareSam的開發與評估,這是一個支援英語和韓語的心理健康聊天機器人。研究針對20位18到27歲的韓國年輕人進行,機器人提供感恩日記和風險檢測等功能。結果顯示用戶在積極性、支持和同理心方面滿意度高,但在專業性和內容複雜性上仍需改進。雖然該聊天機器人展現潛力,但小樣本和短期研究顯示需進一步擴大臨床試驗以提升其有效性。 PubMed DOI

一項2024年初的調查針對428名美國大學學生,探討他們對聊天機器人心理健康支持的看法。結果顯示,雖然近一半的學生使用過聊天機器人,但只有5%是為了心理健康支持,抑鬱或焦慮者中這一比例稍高,達8%。整體上,學生對傳統心理健康服務的態度較正面,對聊天機器人的支持則較中立,主要因為對其有效性存疑。研究建議需進一步探討聊天機器人的效果,以增強公眾信任和使用率。 PubMed DOI

本研究探討人工智慧(AI)輔助的心理社會介入現狀,分析2007至2024年間在Web of Science發表的207篇文章。主要發表來源為*Journal of Medical Internet Research*,美國在研究活動中表現突出。研究主題包括*機器學習*、*心理健康*、*認知行為療法*及*個性化*,自2020年以來對AI驅動療法的興趣逐漸上升,特別是像ChatGPT的工具。這顯示未來心理健康照護將更個性化與創新,並強調了進一步研究的必要性。 PubMed DOI

這項研究評估了針對青少年心理健康的對話代理(CAs)或聊天機器人的現狀。研究人員找到39篇相關的同行評審文章,發現許多CAs主要是基於專家知識設計,缺乏青少年的意見,且技術仍在早期階段,安全性不足。青少年使用者對CAs在討論敏感話題的可用性表示欣賞,但覺得內容有限。大部分研究未解決用戶數據的隱私問題。這項回顧強調了研究人員、青少年和專家的合作必要性,並呼籲在設計中重視隱私與安全。總體而言,仍需更多研究來驗證這些工具的有效性。 PubMed DOI

這項研究探討使用生成式AI聊天機器人為兒童及青少年癌症患者提供心理健康支持,因為他們常面臨心理挑戰和資源不足。研究開發了兩個由GPT-4驅動的聊天機器人,與患者進行自然對話。五名參與者在兩週內與聊天機器人互動,結果顯示四名參與者的焦慮和壓力顯著減少。所有參與者都表示對治療的動力增加,且80%分享了未曾與醫療提供者討論的擔憂。這項研究顯示AI聊天機器人能有效補充傳統心理健康服務,值得進一步探討。 PubMed DOI

兒童與青少年的心理健康問題是全球重要議題,約50%在14歲前就已出現。儘管投入了資源,仍面臨供應不足、污名化及可及性等挑戰。這篇回顧探討對話式人工智慧(AI)在兒童心理健康的應用,顯示其在解決焦慮和憂鬱等問題上有潛力,能提供心理教育和技能練習。未來研究應聚焦於技術的適宜性、長期效果及公平性,並強調跨學科合作以滿足年輕人的心理健康需求。 PubMed DOI

這項研究發現,聊天機器人雖然能提供基本的情感支持和心理教育,但回應較制式,無法深入探討或安全處理危機。相較之下,治療師會引導來談者多說明,介入方式也更細緻。結論是,目前聊天機器人還不能取代專業心理健康照護,尤其遇到危機時更要小心使用。 PubMed DOI

這篇回顧分析36篇AI在心理健康照護的研究,發現AI工具多用於篩檢、治療輔助、監測等,像聊天機器人和語言模型。AI能提升就醫效率和參與度,也有助於症狀追蹤,但仍面臨偏見、隱私和整合等問題。文中提出「四大支柱」架構,強調AI應安全、有效且公平地應用於心理健康領域。 PubMed DOI

AI心理健康聊天機器人發展很快,但因缺乏監管和評估,安全性和有效性引發疑慮。文章建議建立標準化評估框架,強調倫理、循證、對話品質和安全。實施上有挑戰,如評估複雜對話和專家監督。作者呼籲開發者優先考量使用者安全,並讓消費者參與評估。 PubMed DOI