大型語言模型(LLMs)如BERT和GPT的發展,推進了自然語言處理,特別是在心理健康支持方面。不過,這些模型在提供可靠的心理健康資訊上仍有疑慮。本次回顧將探討影響LLMs可信度的因素,重點在可靠性、可解釋性和倫理考量。
根據PRISMA-ScR指導原則,回顧將納入2019至2024年期間的相關研究,並由兩位獨立審查者進行數據篩選。系統性搜尋已完成,篩選階段進行中,數據提取預計在2024年11月初完成,綜合分析則在11月底前完成,結果將為實務工作者和政策制定者提供重要見解。
PubMed
DOI