原始文章

傳統質性研究難以驗證假說,因為文字資料不好量化。TESA這個新方法,利用大型語言模型把假說變成搜尋詞,抓出語意嵌入,再跟文本比對相似度。這樣就能用分數分布來做假說檢驗,解決過去方法偏誤和效率低的問題。 PubMed DOI


站上相關主題文章列表

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

這項研究探討大型語言模型(LLMs)在質性主題分析中的應用,並將其表現與人類分析師在精神科環境中的表現進行比較。研究使用了一個700億參數的開源LLM,並透過先進的提示工程,能在幾分鐘內從半結構性訪談中生成主題。分析結果顯示,LLM生成的主題與人類創建的主題之間的相似性中等到顯著,顯示LLMs在質性研究中有潛力,能提升研究的可及性。 PubMed DOI

這項研究探討大型自然語言模型如GPT-3和GPT-4如何幫助社會心理學研究者生成新假設。由於該領域發現眾多,整合想法變得困難,可能會錯過重要聯繫。研究採用兩種方法:首先對GPT-3進行微調,使用數千篇社會心理學摘要,專家評分後發現其生成的假設在清晰度和創新性上與人類相似;其次不微調使用GPT-4,結果顯示其生成的假設在多個維度上評分更高。總體來看,這些模型能有效支持假設生成。 PubMed DOI

最近,自然語言處理(NLP)在語意數據分析上有了顯著進展,特別是在問卷研究中。研究者開發了一個「語意搜尋助手」的原型,能有效協調不同工具測量相同構念,並探索新構念組合。透過案例研究,該應用成功識別潛在的協調配對,減少了手動評估的需求。專家評估顯示,模型生成的配對與專家意見高度一致,證實了這種方法的有效性,顯示出嵌入模型在協調複雜數據集中的潛力。 PubMed DOI

短文本聚類面臨詞彙共現的挑戰,但研究顯示大型語言模型(LLMs)能有效生成嵌入,捕捉語義細微差異,改善聚類結果。透過高斯混合模型,聚類效果比傳統方法如doc2vec和潛在狄利克雷分配更明顯且易解釋。人類評審和生成型LLM的驗證顯示高一致性,顯示LLM能縮短聚類產出與解釋的距離。此外,LLM與人類編碼的比較揭示了兩者的偏見,質疑傳統將人類編碼視為最終標準的做法。 PubMed DOI

這項研究探討心理概念重疊的問題,這種重疊讓數據解釋變得複雜,增加了參與者的負擔。研究引入了一種名為嵌入式語義分析方法(ESAA),利用自然語言處理技術檢測心理量表中的冗餘。透過OpenAI的text-embedding-3-large模型,ESAA生成高維語義向量,並用層次聚類識別相似項目。 研究進行了三個實驗,評估ESAA在識別相似項目、區分不同項目及揭示冗餘方面的有效性。結果顯示,ESAA表現穩定且優於基於GPT-4的聊天機器人,顯示其在心理研究中的潛力。 PubMed DOI

這篇論文介紹了一個新工具 SEMbeddings,結合微調的嵌入模型與潛在測量模型,能在實際數據收集前評估項目反應數據的適配度。作者將其應用於 VIA-IS-P 問卷,分析了 31,697 名參與者的回應,結果顯示項目嵌入的餘弦相似度與實證相關性有顯著關聯 (r = 0.67)。論文也提到,傳統適配指標可能不夠準確,但修正指標能提供潛在不適配的見解,對於問卷開發有幫助。隨著大型語言模型的進步,這些方法有望提升新問卷的開發效率。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI

這項研究用微調過的大型語言模型,把線上辯論中的各種信念轉成神經嵌入,來分析信念間的關聯。這方法能看出信念極化、連結模式,還能預測個人未來可能的信念,並用信念距離估算認知失調。結果顯示,結合語言模型和線上資料,有助於了解人類信念的形成和互動原則。 PubMed DOI

這份指南回顧並比較三種心理學構念的向量化方法:用單字清單、問卷和有標記範例。作者指出,若要分析不同文本類型,建議用單字清單;若文本和問卷內容接近,則用問卷;有大量標記資料時,則用標記範例。指南也提醒研究者注意嵌入模型的特性和潛在方法問題。 PubMed DOI