原始文章

這項研究探討如何利用大型語言模型(LLMs)為高中生提供個性化建議,以提升他們的福祉和學業表現。研究分析了12名學生的數據,包括Fitbit指標和學校表現,並針對每位學生生成建議。結果顯示,雖然建議通常清晰可行,但與學生個別數據的對應程度有所不同,顯示出改進空間。研究強調了LLMs在個性化支持的潛力,但也需進一步驗證和完善,未來應聚焦於介入研究及解決倫理和數據隱私問題。 PubMed DOI


站上相關主題文章列表

傳統的學業拖延干預常忽略個人因素,但大型語言模型(LLMs)可提供個人化支援。使用者對LLMs的期望和限制尚未完全了解。研究顯示,LLM應提供結構化、以截止日期為導向的干預,並增強使用者支持。應重視適應性問題方法。這些發現對LLM工具設計管理拖延行為有重要啟示,但不宜當作治療工具。 PubMed DOI

MindScape是一個創新的專案,專注於結合時間序列行為模式(如對話參與度、睡眠和位置)與大型語言模型(LLMs),以提升自我反思和福祉。最新研究論文介紹了MindScape情境日記應用程式的設計,透過LLMs和行為感測技術,提供個性化的日記提示,促進情感發展和自我反思。 論文還分享了一項針對大學生的初步用戶研究結果,並討論未來計畫,評估情境AI日記在提升校園福祉的效果。MindScape展現了行為智慧在AI領域的新應用,可能帶來新的進展。 PubMed DOI

大型語言模型(LLMs)在智能視覺化系統中有很大潛力,尤其在專業應用上,但整合時面臨挑戰,包括領域特定問題、視覺化過程及用戶互動。為解決這些問題,我們提出了一個框架,利用微調的LLMs來改善視覺互動。 在教育領域,智能視覺化系統能支持初學者的自我調節學習。我們介紹了Tailor-Mind,一個互動式視覺化系統,幫助AI初學者進行自我調節學習。研究顯示,Tailor-Mind能提供個性化建議,增強學習體驗,驗證了我們框架的有效性。 PubMed DOI

這項研究探討大型語言模型(LLMs)在健康心理學中如何增強健康評估,旨在克服傳統統計和機器學習方法的限制。傳統方法因線性評分而準確性不足,而機器學習則在可解釋性和數據需求上有挑戰。研究提出的ScaleLLM利用LLMs的自然語言理解能力,提供健康量表的專家評估。實驗結果顯示,ScaleLLM在身心健康評估的準確性和可解釋性上都有所提升,成為該領域的一個有前景的工具。 PubMed DOI

學生的心理健康問題影響深遠,因此探索創新的預防和治療方法非常重要。大型多模態模型(LMMs),像是ChatGPT-4,對於精神疾病的預防、診斷和治療展現出希望。這些模型能提供醫學知識、情感支持,並減少污名化,鼓勵患者開放溝通,還能降低醫療成本,提高服務可及性。 不過,健康風險、安全性、幻覺及倫理問題等挑戰需被解決。未來應專注於制定使用指導方針、建立問責制和法律框架,並採用以人為本的方法,透過先進算法優化LMMs。解決這些挑戰將有助於改善學生心理健康,並促進全球可持續發展目標。 PubMed DOI

近年來,大型語言模型(LLMs)在教育領域的應用越來越普遍,然而創建個性化學習環境仍面臨挑戰。文章提到三大挑戰:首先是可解釋性,需增強對LLMs如何理解學習者的認識;其次是適應性,需開發技術提供個性化教學支持;最後是創作與評估,需建立基於LLM的教育代理。克服這些挑戰將有助於打造更符合學生需求的AI輔導員,進而提升學習成效。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來識別青少年抑鬱症訪談中的心理治療結果。作者建立了一個編碼框架,能夠捕捉多樣的治療結果,並評估五個開源LLM的分類能力。實驗結果顯示,這些模型能有效分類31種結果,ROC曲線下面積得分在0.6到1.0之間,成功識別出友誼和學業表現等重要結果。研究強調了臨床數據的應用,顯示詳細編碼治療結果的可行性,並有助於量化重要結果。 PubMed DOI

大學學生常面臨心理健康問題,因此需要有效的介入措施來提升自我認知與福祉。MindScape推出了一種創新的AI驅動日記,結合行為數據與大型語言模型,提供個性化的日記體驗,旨在增進自我認知。 一項為期8週的研究顯示,20名大學生使用MindScape後,正向情感增加7%,負向情感減少11%,孤獨感降低6%,焦慮和憂鬱也顯著下降。參與者對AI生成的定制提示表示重視,這項研究為未來探索AI日記對心理健康的影響奠定基礎。 PubMed DOI

這項研究探討大型語言模型(LLM)如ChatGPT對研究生情感和心理健康的影響。透過對23名大學生的訪談,結果顯示雖然使用者欣賞這些AI工具的功能,但也面臨焦慮、依賴和對未來的悲觀等負面影響。研究指出,使用LLM的好處與情感成本並存,顯示對學生心理健康的影響具有「雙刃劍」的特性。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在心理健康預測任務中的表現,測試的模型包括Alpaca、FLAN-T5、GPT-3.5和GPT-4。研究探討了不同的提示技術,結果顯示指令微調能顯著提升模型能力,尤其是Mental-Alpaca和Mental-FLAN-T5在準確率上超越了GPT-3.5和GPT-4。此外,研究也強調了模型的推理能力及其在實際應用中的倫理問題與偏見考量。這些發現為改善LLM在心理健康領域的應用提供了指導。 PubMed DOI