原始文章

這項研究提出了一種新方法,利用E-DAIC數據集自動預測憂鬱症的嚴重程度。研究人員運用大型語言模型(LLMs)從訪談文字中提取憂鬱症指標,並用患者健康問卷-8(PHQ-8)分數訓練預測模型。他們還結合視頻中的面部數據,發展多模態方法。結果顯示,增強文字數據的語音質量能達到最佳表現,平均絕對誤差為2.85,均方根誤差為4.02。整體來看,這項研究強調了自動化憂鬱症檢測的有效性,並建議多模態分析的優勢。 PubMed DOI


站上相關主題文章列表

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 PubMed DOI

這項研究探討簡短書面回應的情感與抑鬱症狀變化的關係,招募了467名參與者,並使用PHQ-9評估抑鬱症狀。研究發現,人類評審和大型語言模型(如ChatGPT)的情感分析能有效預測三週內的抑鬱症狀變化,而語言查詢工具(LIWC)則無法。研究還指出,語言情感與當前情緒有關,但能獨立預測抑鬱症狀變化,顯示結合AI工具的情感分析可作為預測精神症狀的有效方法。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI

隨著醫療保健中情緒監測的重要性提升,基於腦電圖(EEG)的多模態情緒識別系統逐漸受到重視。然而,日常醫療環境中獲取EEG信號的困難,常導致數據不完整。為了解決這個問題,研究人員提出了一個多教師知識蒸餾框架,結合大型語言模型(LLM)來增強特徵學習。透過LLM提取時間特徵,圖卷積神經網絡則負責空間特徵,並引入因果遮罩和信心指標以提升特徵轉移的相關性。實驗結果顯示,該模型在不完整模態下表現優於現有方法,顯示大型模型在醫療情緒識別中的潛力。相關代碼已公開,網址為 https://github.com/yuzhezhangEEG/LM-KD。 PubMed DOI

學生的心理健康問題影響深遠,因此探索創新的預防和治療方法非常重要。大型多模態模型(LMMs),像是ChatGPT-4,對於精神疾病的預防、診斷和治療展現出希望。這些模型能提供醫學知識、情感支持,並減少污名化,鼓勵患者開放溝通,還能降低醫療成本,提高服務可及性。 不過,健康風險、安全性、幻覺及倫理問題等挑戰需被解決。未來應專注於制定使用指導方針、建立問責制和法律框架,並採用以人為本的方法,透過先進算法優化LMMs。解決這些挑戰將有助於改善學生心理健康,並促進全球可持續發展目標。 PubMed DOI

這項研究探討大型語言模型(LLMs),特別是Llama-2,如何在電子健康紀錄(EHRs)中檢測精神科入院紀錄的自殺風險。研究人員評估了不同Llama-2模型在100份精神科報告上的表現,並與專家定義的真實情況進行比較。經過德國微調的Llama-2模型表現最佳,準確率達87.5%,敏感性83.0%,特異性91.8%。結果顯示,LLMs能有效提取自殺相關資訊,並保持數據隱私,顯示其在監測精神科緊急情況及增強自殺管理上的潛在應用價值。 PubMed DOI

抑鬱症是全球重要的公共健康議題,雖然已有研究探討人工智慧在心理健康的應用,但針對大型語言模型(LLMs)的深入分析仍不多。本系統性回顧評估了LLMs在抑鬱症診斷與管理的有效性,並探討其在臨床環境中的整合潛力。從2018年到2024年,回顧了34項研究,發現像RoBERTa和BERT等模型在早期檢測和症狀分類上表現優異。不過,LLMs的臨床應用仍需解決數據隱私和倫理問題,才能安全有效地整合進醫療實務中。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來識別青少年抑鬱症訪談中的心理治療結果。作者建立了一個編碼框架,能夠捕捉多樣的治療結果,並評估五個開源LLM的分類能力。實驗結果顯示,這些模型能有效分類31種結果,ROC曲線下面積得分在0.6到1.0之間,成功識別出友誼和學業表現等重要結果。研究強調了臨床數據的應用,顯示詳細編碼治療結果的可行性,並有助於量化重要結果。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分類與心理健康相關的電子健康紀錄(EHRs)術語的有效性,並與臨床專家的判斷進行比較。研究使用了來自美國50多家醫療機構的數據,分析了因心理健康問題入院的病人EHR。結果顯示,LLM與臨床醫生在術語的廣泛分類上達成高一致性(κ=0.77),但在具體的心理健康(κ=0.62)和身體健康術語(κ=0.69)上則較低,顯示出LLM的變異性。儘管如此,研究強調了LLM在自動化編碼和預測建模中的潛力。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在心理健康預測任務中的表現,測試的模型包括Alpaca、FLAN-T5、GPT-3.5和GPT-4。研究探討了不同的提示技術,結果顯示指令微調能顯著提升模型能力,尤其是Mental-Alpaca和Mental-FLAN-T5在準確率上超越了GPT-3.5和GPT-4。此外,研究也強調了模型的推理能力及其在實際應用中的倫理問題與偏見考量。這些發現為改善LLM在心理健康領域的應用提供了指導。 PubMed DOI