原始文章

這篇論文提出 ExDoRA 框架,透過挑選最相關又多元的 few-shot 範例,結合 LLM 產生的文字解釋,能有效提升 LLM 在新任務上的表現。應用於對話式憂鬱症偵測時,ExDoRA 不僅能穩定給出高品質解釋,還大幅提升召回率和 F1 分數,展現其在數位心理健康篩檢的潛力。 PubMed DOI


站上相關主題文章列表

最近大型語言模型(LLMs)在心理健康護理中的對話代理(CAs)方面有了新進展,但仍面臨高品質訓練數據不足、隱私問題及低資源語言標註成本高等挑戰。研究利用社交媒體的公共討論來建立人機標註系統,並探討零樣本分類技術對四種LLMs進行文本分類,分析64,404篇俄語文本,聚焦七種心理疾病。結果顯示,微調模型能顯著提升分類準確率,並且多語言模型表現優於翻譯文本的英語模型。我們的數據集和模型已公開,助力心理健康對話代理的發展。 PubMed DOI

這項研究提出了一種新方法,利用E-DAIC數據集自動預測憂鬱症的嚴重程度。研究人員運用大型語言模型(LLMs)從訪談文字中提取憂鬱症指標,並用患者健康問卷-8(PHQ-8)分數訓練預測模型。他們還結合視頻中的面部數據,發展多模態方法。結果顯示,增強文字數據的語音質量能達到最佳表現,平均絕對誤差為2.85,均方根誤差為4.02。整體來看,這項研究強調了自動化憂鬱症檢測的有效性,並建議多模態分析的優勢。 PubMed DOI

這項研究顯示客製化的大型語言模型(LLMs)在提升談話治療,特別是癡呆症護理中的潛力。研究團隊利用QLoRA方法,在A40 GPU上微調五個開源LLM,創造出針對心理健康的解決方案。他們生成了10,000個模擬的諮詢師與病人互動問答,涵蓋憂鬱症和焦慮症等問題。微調後的模型在心理健康論壇和Quora的測試中表現優異,最佳模型「Mixtral-8×7B-v0.1-qlora」得分7.83,顯示出顯著改善,強調了微調LLMs在心理健康治療中的有效性。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在心理健康預測任務中的表現,測試的模型包括Alpaca、FLAN-T5、GPT-3.5和GPT-4。研究探討了不同的提示技術,結果顯示指令微調能顯著提升模型能力,尤其是Mental-Alpaca和Mental-FLAN-T5在準確率上超越了GPT-3.5和GPT-4。此外,研究也強調了模型的推理能力及其在實際應用中的倫理問題與偏見考量。這些發現為改善LLM在心理健康領域的應用提供了指導。 PubMed DOI

這項研究首度公開570份專家撰寫的臨床鑑別診斷解釋資料集,並提出新架構「Dual-Inf」來提升大型語言模型產生DDx解釋的準確度。此創新做法評估了AI在診斷推理解釋上的能力,期望提升AI診斷透明度與品質,幫助臨床決策更可靠。 PubMed DOI

這項研究發現,大型語言模型和文字嵌入模型能從精神科病患的句子完成測驗中,準確辨識憂鬱症和自殺風險,尤其在分析自我概念相關內容時效果最好。最佳模型偵測憂鬱症的AUROC達0.841。雖然AI有潛力協助心理健康評估,但臨床應用前還需要更多改進和安全驗證。 PubMed DOI

這項研究利用大型語言模型(LLMs)把電子健康紀錄(EHR)結構化資料轉成自然語言,並應用在疾病預測。LLMs分別扮演「預測者」和「評論者」兩種角色,負責預測結果和給予改進建議。結果顯示,在樣本數少的情況下,這種方法的預測表現不輸傳統監督式學習,對醫療應用很有發展潛力。 PubMed

這項研究發現,透過提示工程(prompt engineering)可以提升大型語言模型在心理治療(PST)初期階段的表現,尤其在症狀辨識和目標設定上更有效。雖然品質和同理心有所提升,但仍有侷限。整體來說,LLM 有潛力協助解決心理健康人力不足,推動 AI 治療服務發展。 PubMed

這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed

本研究開發了一套專為失眠症設計的智能eCBT-I對話系統,結合CBT-I知識圖譜與大型語言模型。我們比較八種主流LLM及三種調適方法,找出各模型最佳組合,其中Qwen2-7b(Freeze)表現最優。這證明專業知識能有效融入LLM,為醫療AI在資料有限下的應用提供新方向。 PubMed DOI