原始文章

這項研究探討簡短書面回應的情感與抑鬱症狀變化的關係,招募了467名參與者,並使用PHQ-9評估抑鬱症狀。研究發現,人類評審和大型語言模型(如ChatGPT)的情感分析能有效預測三週內的抑鬱症狀變化,而語言查詢工具(LIWC)則無法。研究還指出,語言情感與當前情緒有關,但能獨立預測抑鬱症狀變化,顯示結合AI工具的情感分析可作為預測精神症狀的有效方法。 PubMed DOI


站上相關主題文章列表

研究比較AI模型ChatGPT-3和ChatGPT-4以及初級保健醫師對抑鬱症的評估和治療建議。結果顯示,AI模型在輕度病例中推薦心理治療,而初級醫師則主張綜合治療。對於嚴重病例,AI模型偏好心理治療,醫師則建議綜合治療。AI模型偏好單獨使用抗抑鬱藥,醫師則建議混合使用。AI模型建議中沒有偏見,但仍需進一步研究以完善對嚴重病例的建議,並解決風險和道德問題。 PubMed DOI

研究發現ChatGPT提升使用者快樂感、降低悲傷,性別影響不大但情緒有變化。研究限制在於樣本少、年齡狹窄,未來可擴大研究對象。值得注意的是ChatGPT對問卷生成有積極影響,未來可探討不同語言模型或聊天機器人對不同年齡族群的情緒影響。 PubMed DOI

研究使用大型語言模型分析Reddit上有關自殺意念的討論,發現許多常見主題,像是社會脫節感、負擔感、絕望和創傷。在心理健康子版(包括r/SuicideWatch)的290萬篇帖子中進行分析,辨識出幸福感、尋求支持和痛苦程度等獨特語言維度。研究結果支持現有自殺理論,也符合心理健康疾病的診斷分類系統。這種方法有助於深入了解線上分享的情緒和經歷,並驗證完善心理健康理論。 PubMed DOI

人工智慧進步,如OpenAI的GPT-4,對語言任務很有幫助。研究評估GPT-4在預測心理健康危機上的表現,發現臨床醫師在主訴方面表現較佳,但加入自殺企圖歷史後,兩者表現都有改善。GPT-4有潛力匹敵臨床醫師,但仍需進一步測試,包括偏見檢查。LLMs可提升患者風險辨識,改善護理品質。 PubMed DOI

纖維肌痛是個復雜的疾病,主要症狀是全身疼痛和情緒困擾,診斷很有挑戰性。患者常有認知和情緒變化,對疼痛相關資訊更敏感。研究指出,利用大型語言模型進行情感分析可幫助辨識疼痛表達中微妙的差異,尤其對於纖維肌痛的診斷有幫助。這項研究顯示,透過快速工程方法針對纖維肌痛的語言細微差異,能更準確地區分患者。未來還需進一步研究,包括與其他患者群體的驗證。 PubMed DOI

研究探討大型語言模型如ChatGPT是否能從社群媒體貼文推斷人格特質,結果顯示模型可準確推斷大五人格特質,尤其對女性和年輕人更準確。這種能力或許讓心理評估更普及,但也引發隱私和監管疑慮。 PubMed DOI

大型語言模型(LLM)應用廣泛,包括心理健康領域。然而,使用LLM強化的對話人工智慧(CAI)協助抑鬱症患者面臨人性化和情境韌性挑戰。觀點論文探討這些挑戰,提出跨學科解決方案,結合哲學、心理學和計算機科學。為了負責地設計和應用LLM增強的CAI支援抑鬱症患者,提出建議。 PubMed DOI

像ChatGPT這樣的大型語言模型(LLMs)在精神醫學領域有潛力搭起人工智慧與人類認知過程之間的橋樑。它們可以協助診斷心理健康問題、管理憂鬱症、評估自殺風險,並支援教育。然而,存在一些限制,例如處理複雜案例的困難和低估自殺風險。未來的研究可能會探索LLMs如何重塑精神健康照護。 PubMed DOI

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 PubMed DOI

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI