原始文章

抑鬱症對全球影響深遠,影響工作效率和殘疾率。雖然早期發現很重要,但現有的篩檢工具常缺乏客觀性。研究者正探索影像分析、血液標記及日記寫作等客觀指標。這項研究利用情感日記應用程式,評估91名參與者的日記文本,並使用GPT-3.5和GPT-4等大型語言模型進行抑鬱症檢測。結果顯示,微調後的GPT-3.5準確率達90.2%,顯示用戶生成的文本在臨床檢測抑鬱症上具潛力,未來可結合其他可測量指標進一步研究。 PubMed DOI


站上相關主題文章列表

研究比較AI模型ChatGPT-3和ChatGPT-4以及初級保健醫師對抑鬱症的評估和治療建議。結果顯示,AI模型在輕度病例中推薦心理治療,而初級醫師則主張綜合治療。對於嚴重病例,AI模型偏好心理治療,醫師則建議綜合治療。AI模型偏好單獨使用抗抑鬱藥,醫師則建議混合使用。AI模型建議中沒有偏見,但仍需進一步研究以完善對嚴重病例的建議,並解決風險和道德問題。 PubMed DOI

ChatGPT等AI模型被應用在心理健康支援,但人們擔心它們是否能處理嚴重的抑鬱和自殺傾向。一項研究評估了ChatGPT-3.5在模擬自殺風險情境時的表現,結果顯示大多數代理需要人類介入才能處理危機。研究指出AI對話代理可能延遲風險升級,強調在臨床應用前需要更多測試和監督。技術進步需提升AI在心理健康中的安全性。 PubMed DOI

研究使用大型語言模型分析Reddit上有關自殺意念的討論,發現許多常見主題,像是社會脫節感、負擔感、絕望和創傷。在心理健康子版(包括r/SuicideWatch)的290萬篇帖子中進行分析,辨識出幸福感、尋求支持和痛苦程度等獨特語言維度。研究結果支持現有自殺理論,也符合心理健康疾病的診斷分類系統。這種方法有助於深入了解線上分享的情緒和經歷,並驗證完善心理健康理論。 PubMed DOI

人工智慧進步,如OpenAI的GPT-4,對語言任務很有幫助。研究評估GPT-4在預測心理健康危機上的表現,發現臨床醫師在主訴方面表現較佳,但加入自殺企圖歷史後,兩者表現都有改善。GPT-4有潛力匹敵臨床醫師,但仍需進一步測試,包括偏見檢查。LLMs可提升患者風險辨識,改善護理品質。 PubMed DOI

研究使用ChatGPT協助輔導員與患者互動,並比較其回應與人類內容。整合AI技術改善心理健康干預,框架準確率達93.76%,ChatGPT回應有禮且簡潔。AI內容可增進傳統干預方法,提升醫療系統患者照護和輔導實踐。 PubMed DOI

大型語言模型(LLM)應用廣泛,包括心理健康領域。然而,使用LLM強化的對話人工智慧(CAI)協助抑鬱症患者面臨人性化和情境韌性挑戰。觀點論文探討這些挑戰,提出跨學科解決方案,結合哲學、心理學和計算機科學。為了負責地設計和應用LLM增強的CAI支援抑鬱症患者,提出建議。 PubMed DOI

像ChatGPT這樣的大型語言模型(LLMs)在精神醫學領域有潛力搭起人工智慧與人類認知過程之間的橋樑。它們可以協助診斷心理健康問題、管理憂鬱症、評估自殺風險,並支援教育。然而,存在一些限制,例如處理複雜案例的困難和低估自殺風險。未來的研究可能會探索LLMs如何重塑精神健康照護。 PubMed DOI

這項研究探討了不同人工智慧模型在精神醫學診斷的表現,包括GPT-3.5、GPT-4、Aya和Nemotron。由於病人主觀報告的影響,準確診斷常常困難。研究使用20個DSM-5的臨床案例,結果顯示GPT-3.5和GPT-4在準確性和推理上優於其他模型,尤其在診斷精神病和雙相情感障礙方面表現突出,但在某些情況下則不佳。研究建議,人工智慧有潛力改善精神科診斷,但其他模型需進一步改進,未來應擴展數據集以增強診斷能力。 PubMed DOI

這篇論文探討了基於變壓器的模型,旨在檢測社交媒體上用戶生成內容中的抑鬱症狀。研究強調了解釋性的重要性,特別是對健康專業人員而言。作者提出兩種方法:一是將分類和解釋任務分開,二是整合到同一模型中。他們還利用對話型大型語言模型(LLMs)進行上下文學習和微調,生成的自然語言解釋與症狀相符,讓臨床醫生更易理解模型輸出。評估結果顯示,能在提供可解釋的解釋的同時,達到高分類性能。 PubMed DOI

這項研究探討簡短書面回應的情感與抑鬱症狀變化的關係,招募了467名參與者,並使用PHQ-9評估抑鬱症狀。研究發現,人類評審和大型語言模型(如ChatGPT)的情感分析能有效預測三週內的抑鬱症狀變化,而語言查詢工具(LIWC)則無法。研究還指出,語言情感與當前情緒有關,但能獨立預測抑鬱症狀變化,顯示結合AI工具的情感分析可作為預測精神症狀的有效方法。 PubMed DOI