原始文章

這個教學強調理解人們對風險、可持續性和智慧等概念的心理表徵,對心理學研究者和政策制定者都很重要。它介紹了利用自由聯想來收集這些心理表徵的見解,並使用R套件<i>associatoR</i>進行數據的收集、處理和分析。內容涵蓋研究設計考量及自然語言處理技術,還包括大型語言模型的應用。作者認為,自由聯想分析是一個強大的工具,能揭示個人和機器如何理解重要的社會與技術議題。 PubMed DOI


站上相關主題文章列表

這項研究指出大型語言模型(LLMs)在精神醫學研究中不僅能提升臨床應用,還能改善文獻回顧、研究設計等方面的效率。不過,仍面臨偏見、計算需求、數據隱私和內容可靠性等挑戰。這篇回顧強調謹慎監督、嚴格驗證及遵循倫理標準的重要性,期望透過解決這些問題,最大化LLMs的優勢,並推動精神醫學研究的進展。 PubMed DOI

這項研究探討心理概念重疊的問題,這種重疊讓數據解釋變得複雜,增加了參與者的負擔。研究引入了一種名為嵌入式語義分析方法(ESAA),利用自然語言處理技術檢測心理量表中的冗餘。透過OpenAI的text-embedding-3-large模型,ESAA生成高維語義向量,並用層次聚類識別相似項目。 研究進行了三個實驗,評估ESAA在識別相似項目、區分不同項目及揭示冗餘方面的有效性。結果顯示,ESAA表現穩定且優於基於GPT-4的聊天機器人,顯示其在心理研究中的潛力。 PubMed DOI

EmoAtlas是一個情感分析計算庫,能從18種語言的文本中提取情感與詞彙聯想。它運用可解釋的人工智慧進行語法解析,根據Plutchik理論識別八種情感,並在英語和意大利語的情感檢測上表現優於BERT和ChatGPT 3.5。其憤怒檢測準確率達85.6%,速度比BERT快12倍,且無需微調。EmoAtlas還能分析文本中情感的表達,提供如酒店評論等情境下的客戶情感見解,作為獨立資源發布,旨在提取可解釋的見解。 PubMed DOI

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI

這項初步研究探討了大型語言模型(LLMs),特別是GPT-4,生成心理動力學報告的潛力,幫助個人更好理解自己。研究分為三個步驟: 1. **問卷開發**:參與者回答20個問題,探討人際關係困擾,包含14個GPT-4生成的問題及6個固定的父母關係問題。 2. **專家評估**:七位精神科教授評估AI生成報告的質量及幻覺風險,並與專家推論進行比較。 3. **參與者滿意度**:參與者用李克特量表評價報告的清晰度、洞察力等。 結果顯示,AI報告質量與專家相當,參與者滿意度高,顯示AI可成為心理動力學解釋的有價值工具。 PubMed DOI

作者用三種大型語言模型(Mistral、Llama3、Haiku)產生大量自由聯想詞彙,並和人類的 SWOW 資料集對照,建立了新的 LWOW 資料集。這讓我們能直接比較人類和 LLMs 的概念知識組織,並用語意啟動模擬來驗證模型,也能用來研究人類和 LLMs 的隱性偏見。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

傳統質性研究難以驗證假說,因為文字資料不好量化。TESA這個新方法,利用大型語言模型把假說變成搜尋詞,抓出語意嵌入,再跟文本比對相似度。這樣就能用分數分布來做假說檢驗,解決過去方法偏誤和效率低的問題。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI

這份指南回顧並比較三種心理學構念的向量化方法:用單字清單、問卷和有標記範例。作者指出,若要分析不同文本類型,建議用單字清單;若文本和問卷內容接近,則用問卷;有大量標記資料時,則用標記範例。指南也提醒研究者注意嵌入模型的特性和潛在方法問題。 PubMed DOI