原始文章

這項研究指出社交媒體對抑鬱症患者的影響,特別是他們與扭曲內容的互動。研究中838名參與者顯示,抑鬱症狀較重的人更容易接觸這類內容。研究還提出一個簡單的介入措施,能幫助人們提高意識,減少與扭曲內容的互動,無論抑鬱程度如何。這顯示針對性的意識訓練能有效減輕社交媒體對抑鬱症患者的負面影響,並強調進一步研究社交媒體與心理健康關係的重要性。 PubMed DOI


站上相關主題文章列表

一項2024年初的調查針對428名美國大學學生,探討他們對聊天機器人心理健康支持的看法。結果顯示,雖然近一半的學生使用過聊天機器人,但只有5%是為了心理健康支持,抑鬱或焦慮者中這一比例稍高,達8%。整體上,學生對傳統心理健康服務的態度較正面,對聊天機器人的支持則較中立,主要因為對其有效性存疑。研究建議需進一步探討聊天機器人的效果,以增強公眾信任和使用率。 PubMed DOI

這項研究探討了健康錯誤資訊的影響,以及在COVID-19疫情期間社交媒體上更正貼文的有效性。研究分析了三年內來自事實查核機構和健康機構的更正貼文,重點在於不同屬性如何影響用戶互動。 主要發現包括: 1. 用戶互動趨勢顯示疫情期間的互動模式。 2. 貼文屬性(如風險、意識、數字等)對互動有顯著影響,強調意識和事實的貼文更受歡迎。 3. 用戶評論分為認知型和情感型,某些偏見評論對分享有負面影響。 研究強調有效傳遞錯誤資訊意識和事實內容能提升用戶互動,為改善公共健康溝通提供策略建議。 PubMed DOI

這項研究探討早期不適應性圖式(EMSs)與線上心理健康社群(OMHCs)中的心理健康問題之間的關聯。分析了29,329則貼文,發現特定EMSs與心理健康問題有顯著關聯,如焦慮與受害脆弱性、憂鬱與人際需求未滿足等。研究指出,憂鬱、人格障礙和PTSD與多個EMSs相關,顯示其複雜性。研究強調理解EMSs的重要性,以便為線上支持者開發針對性的AI介入方案。 PubMed DOI

這項研究評估了治療性聊天機器人(如 Wysa 和 Youper)與通用語言模型(如 GPT-3.5、GPT-4 和 Gemini Pro)在處理認知偏誤和識別用戶情緒的效果。結果顯示,通用聊天機器人在糾正認知偏誤方面表現更佳,特別是 GPT-4 獲得最高分。通用機器人也在情緒識別上超越治療性機器人,顯示出後者在這方面的局限性。研究建議未來設計應提升情緒智力,並解決倫理問題,以確保人工智慧在心理健康支持上的有效性。 PubMed DOI

這項研究強調了解患者使用抗憂鬱藥物的經驗對提升依從性及以患者為中心的照護的重要性。患者的不依從性常因副作用、依賴性及對藥物效果的懷疑而影響。透過分析AskaPatient和Reddit等平台的討論,發現59.3%的對話表達中立情感,38.4%為負面情緒,主要是恐懼和悲傷。討論中「心理健康與人際關係」最常被提及,顯示對心理健康的關注。這些見解可協助醫療提供者制定個人化治療策略,提升患者滿意度及依從性,達到更具同理心的照護。 PubMed DOI

這項研究探討了一次性自我慈悲寫作練習的效果,並比較了有無ChatGPT反饋的情況。98名參與者被分為三組:一組有ChatGPT反饋,另一組則沒有,還有一組作為對照組。結果顯示,參與寫作的兩組自我慈悲顯著增加,接受ChatGPT反饋的組別焦慮也明顯減少,而對照組則無顯著變化。這表明自我慈悲寫作能有效減少焦慮,結合ChatGPT的反饋能進一步增強效果,讓心理支持更易於大眾獲得。 PubMed DOI

這項研究探討利用人工智慧分析開放式語言回應,來增強青少年網路認知行為療法的心理健康評估。44名瑞典青少年在介入前後完成焦慮和憂鬱量表及三個開放式問題,研究發現語言分析能顯示心理健康的顯著改善,與傳統量表結果相似。這種方法不僅有效且準確,還能提供更深入的見解,解決傳統問卷的理解問題。研究建議將人工智慧語言分析整合進心理健康評估中,作為補充工具。 PubMed DOI

這項研究發現,X(前稱 Twitter)上雖然越來越多人在不同主題加上觸發警告,但大部分可能引起不適的內容還是沒被標註。這代表大家對敏感議題的意識有提升,但還有很多貼文沒被提醒,顯示警告使用仍不普及。 PubMed DOI

這項研究發現,社群媒體上關於自殺的討論常忽略弱勢族群的議題。研究團隊用AI生成補足這些缺漏主題的資料,讓機器學習模型訓練更全面。結果顯示,加入這些合成資料後,模型偵測自殺意念的準確度提升,有助於打造更包容的線上自殺風險偵測工具。 PubMed DOI

這項研究發現,ChatGPT 上癮主要是因為衝動性思考,尤其當衝動與反思失衡時更明顯。獨立自我觀的人較容易衝動使用,互賴自我觀的人則較會思考,但即使反思也難完全避免上癮。這提醒我們生成式 AI 可能帶來負面認知影響,並提供建立健康數位習慣的參考。 PubMed DOI