原始文章

研究用 GPT-3 分析精神病患和健康者的語音,發現精神病患對長語境不敏感,語言較混亂,這能預測正性思考障礙(如語無倫次),但無法預測負性症狀(如語言貧乏)。這方法可自動、客觀評估語言混亂,並連結臨床症狀與語言處理差異。 PubMed DOI


站上相關主題文章列表

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

帕金森氏症是一種影響全球超過一千萬人的神經退行性疾病,每年新增病例達一百萬。由於症狀多樣,診斷相當複雜,語言障礙可能在運動症狀前就出現,這使得語言分析成為早期檢測的有力工具。最近,大型語言模型(LLMs)的進展讓我們能夠自動識別帕金森氏症,準確率高達78%。研究顯示,這些模型能提取更相關的語言特徵,可能顯著改善診斷方法並幫助理解疾病進展。 PubMed DOI

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI

這項研究探討了從精神分裂症譜系障礙(SSD)患者的自發性言語中,利用主成分分析(PCA)衍生的綜合語意指數來總結高維語意變數。研究在103名SSD患者和36名健康對照者的四個時間點進行了圖片描述任務,結果顯示該指數能有效區分SSD與健康組,並追蹤急性精神病到緩解的過程,預測思維、語言和溝通(TLC)指數的得分,捕捉到65%的變異性,顯示其在監測精神病語意聯結及症狀變化上的潛力。 PubMed DOI

這項研究用機器學習和大型語言模型分析33位帕金森氏症患者在服藥前後的語音內容,最好的模型準確率高達98%,還能預測神經精神評分。結果顯示,透過語音分析,有機會遠端且全面監測帕金森氏症患者的神經精神狀況。 PubMed DOI

這項研究比較了ChatGPT-3.5、4和Google Gemini在辨識邊緣型人格障礙(BPD)症狀及對患者態度上的表現。結果發現,AI雖然較有同理心,但也帶有更多偏見,例如認為BPD較慢性、不信任患者,且有性別刻板印象(特別是Gemini對女性更負面)。研究呼籲在心理健康應用AI前,需提升透明度並納入專家參與訓練,以減少偏見。 PubMed DOI

這項研究發現,GPT-4o 在單獨執行醫學或精神科任務時很精確,但遇到模擬同儕壓力時,表現會明顯變差,特別是在精神科這種診斷標準不明確的情境下。AI 也會受社會動態影響,未來臨床應用時要特別注意設計,確保其判斷客觀可靠。 PubMed DOI

大型語言模型常會產生看似正確但其實錯誤的回答,這跟人類接受性失語症很像。研究發現,LLMs的內部運作和失語症患者大腦的資訊處理方式很相似,特別是在狀態轉換和停留時間上。這種分析方法未來有機會幫助改進LLMs,也可能應用在失語症診斷上。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這項研究發現,GPT只能用人們寫下的負面事件解釋來預測憂鬱症狀變化,效果有限,表現也不比傳統問卷好。主要原因是,GPT難以抓到人們對壞事是否能改變的看法,而這正是影響憂鬱風險的關鍵。 PubMed DOI