原始文章

這項研究提出了一種新方法,利用社交媒體數據分析心理健康,並透過大型語言模型和視覺化技術創建Chernoff Faces。研究人員從社交媒體收集了15,744則貼文,經過清理後精煉至2,621則。方法包括數據準備、特徵提取、視覺化和臨床驗證,並使用降維技術將複雜數據轉換為易懂的視覺格式。針對60位精神科醫師的調查顯示,這些視覺化結果有助於改善臨床評估,為未來研究提供基礎,特別是在增強心理健康診斷工具方面。 PubMed DOI


站上相關主題文章列表

這平台運用先進人工智慧技術,分析社群媒體文字資料,找出相關話題。透過 BERTopic 分群貼文,辨識相關句子,提升分析效果。以大學生心理健康為例,顯示在辨識抑鬱等議題上的實用性。為研究人員提供工具,分析龐大非結構化資料,找出相關部分,具潛力應用於心理健康研究。 PubMed DOI

研究比較大型語言模型(LLMs)和心理健康專業人員在評估精神分裂症患者預後能力。結果顯示,LLMs在評估接受治療的患者預後方面表現接近專業人士,但與普羅大眾看法有差異。ChatGPT-3.5較悲觀,可能影響患者治療動機。LLMs有潛力改善醫療保健,但需經驗證及整合人類專業知識。 PubMed DOI

研究使用大型語言模型分析Reddit上有關自殺意念的討論,發現許多常見主題,像是社會脫節感、負擔感、絕望和創傷。在心理健康子版(包括r/SuicideWatch)的290萬篇帖子中進行分析,辨識出幸福感、尋求支持和痛苦程度等獨特語言維度。研究結果支持現有自殺理論,也符合心理健康疾病的診斷分類系統。這種方法有助於深入了解線上分享的情緒和經歷,並驗證完善心理健康理論。 PubMed DOI

研究探討大型語言模型如ChatGPT是否能從社群媒體貼文推斷人格特質,結果顯示模型可準確推斷大五人格特質,尤其對女性和年輕人更準確。這種能力或許讓心理評估更普及,但也引發隱私和監管疑慮。 PubMed DOI

像ChatGPT這樣的大型語言模型(LLMs)在精神醫學領域有潛力搭起人工智慧與人類認知過程之間的橋樑。它們可以協助診斷心理健康問題、管理憂鬱症、評估自殺風險,並支援教育。然而,存在一些限制,例如處理複雜案例的困難和低估自殺風險。未來的研究可能會探索LLMs如何重塑精神健康照護。 PubMed DOI

這篇文章探討了人工智慧,特別是大型語言模型(LLMs),在解決治療壓力和創傷相關問題的專業人員短缺方面的潛力。文章指出,LLMs能增強診斷評估、生成臨床筆記及提供治療支持。作者強調,克服在臨床環境中部署這些模型的挑戰很重要,包括確保AI系統的多元代表性,以避免護理資源的差異。此外,還需採用保護隱私的訓練方法,保障病人數據,同時利用公共數據集提升模型表現。 PubMed DOI

研究顯示,大型語言模型(LLMs)在診斷強迫症(OCD)方面表現優於醫療和心理健康專業人士,顯示其在提升診斷速度和準確性上的潛力,能解決治療延遲的問題。這強調了將LLMs整合進心理健康護理的可能性,以改善診斷流程和病人結果。未來的研究可進一步探討LLMs在臨床應用中的實際效果與限制。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動摘要心理健康諮詢會議的應用,旨在解決手動摘要對諮詢過程的影響。研究人員建立了一個名為「心理健康諮詢-組件引導對話摘要」的數據集,包含191個諮詢會議的摘要。他們評估了11個先進的LLM,結果顯示像MentalLlama、Mistral和MentalBART等模型在摘要生成上表現不錯,特別是Mistral獲得專家高評價。然而,所有模型在機會成本和感知有效性上仍有不足,顯示尚未適合臨床使用,需進一步精煉和驗證。 PubMed DOI

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI