原始文章

這項研究探討大學生的微博發文與父母教養風格的關聯,指出負面教養可能引發焦慮和憂鬱等心理健康問題。研究分析了575名學生的超過111,000篇發文,透過頻率分析找出語言和情感表達的差異。他們開發的新方法在評估教養風格上表現優於現有的自然語言處理模型,顯著降低均方誤差(MSE)。這些發現有助於理解教養與學生表達的關係,並為醫療提供者提供工具,以識別有風險的學生並進行及時干預,改善心理健康並預防自殺。 PubMed DOI


站上相關主題文章列表

這項研究開發了一個聊天機器人,目的是早期識別青少年的抑鬱症狀,並解決精神科服務接觸率低的問題。研究分為兩個步驟: 1. **數據收集與分析**:對53名青少年進行標準化訪談,產生4,077對問答,訓練出一個準確率高達97%的模型,能有效區分有無抑鬱症的青少年。 2. **使用Chat GPT生成數據**:為增強數據集,研究利用Chat GPT生成額外語句,發現有效的提示工程具有挑戰性,但成功策略是平衡提示長度與示例數量。 總體來看,這項研究顯示分析青少年語言模式能有效識別抑鬱症狀,而Chat GPT則是創建合成數據的好工具。 PubMed DOI

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

這項研究提出了一種新方法,結合生成注意力機制與狀態轉換方程,分析中文教育中的學習行為。這種方法能即時調整注意力權重,模擬學生情感與行為變化,克服現有方法的限制。透過實證實驗,預測行為準確率達90.6%,學習滿意度得分89.2,超越BERT、GPT-3等基準模型。這些結果顯示該方法在個性化教學與動態行為建模上的實用性,為中文教育提供了結構化框架。 PubMed DOI

這項研究探討利用人工智慧分析開放式語言回應,來增強青少年網路認知行為療法的心理健康評估。44名瑞典青少年在介入前後完成焦慮和憂鬱量表及三個開放式問題,研究發現語言分析能顯示心理健康的顯著改善,與傳統量表結果相似。這種方法不僅有效且準確,還能提供更深入的見解,解決傳統問卷的理解問題。研究建議將人工智慧語言分析整合進心理健康評估中,作為補充工具。 PubMed DOI

這項研究評估了ChatGPT-4生成的問卷在焦慮和憂鬱評估上的有效性,並與PHQ-9和GAD-7進行比較。新問卷GPT-PHQ-9和GPT-GAD-7在200名大學生中測試,結果顯示其可靠性可接受(Cronbach's α分別為0.75和0.76),且與已驗證工具一致性良好(ICC值為0.80和0.70)。研究發現中等相關性,憂鬱和焦慮的最佳截斷分數分別為9.5和6.5,顯示高敏感性和特異性。這些結果顯示ChatGPT-4調整的問卷值得在不同族群中進一步研究。 PubMed DOI

這項研究用改良過的主題建模方法(GSDMM加上詞彙加權),分析失智症家屬在Twitter的貼文,比常用的BERTopic模型更能產生清楚且一致的主題。結合AI(ChatGPT 4)和專家審查,找出家庭照顧者的主要關注和挑戰,幫助醫療人員和支援組織更有效回應他們的需求。 PubMed

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這項研究發現,社群媒體上關於自殺的討論常忽略弱勢族群的議題。研究團隊用AI生成補足這些缺漏主題的資料,讓機器學習模型訓練更全面。結果顯示,加入這些合成資料後,模型偵測自殺意念的準確度提升,有助於打造更包容的線上自殺風險偵測工具。 PubMed DOI

這項研究比較三款AI語言模型在判斷Reddit心理困擾貼文緊急程度的表現,發現它們都容易高估風險,但GPT-4o和Claude 3.5 Sonnet的結果較接近臨床醫師,GPT-4o表現最好。雖然AI有潛力協助心理健康分級,但還是需要專業人員把關。 PubMed DOI

這項研究發現,ChatGPT能給家長清楚又實用的ADHD行為訓練建議,但部分資料過時、內容也不夠深入。AI工具雖然能協助照顧者學習,但臨床應用前,建議再加強正確性和細節。 PubMed DOI