原始文章

這項研究探討了支撐ChatGPT的GPT模型在多語言心理文本分析中的有效性。研究分析了15個數據集,包含47,925條推文和新聞標題,評估GPT在12種語言中檢測情感、情緒等心理構念的能力。結果顯示,GPT的表現超越傳統方法,且隨著版本更新準確性提升,特別是在不常用語言中,具成本效益。研究建議GPT能民主化自動文本分析,促進跨語言研究,並提供範例代碼和教學。 PubMed DOI


站上相關主題文章列表

這項研究探討了在人機互動中使用ChatGPT進行文本分析。結果顯示,ChatGPT的情緒分數與人類評分和基於規則的分析有很強的相關性。它還能提供訪談數據的有意義摘要,並突顯了思考過程數據中的差異。總的來說,ChatGPT在適當的預防措施下可以成為文本分析的有效工具。 PubMed DOI

ChatGPT等工具因運用大型語言模型而受歡迎,引發了有關作者身份和貢獻評估的問題。然而,對人類數據收集的影響卻被忽略。研究指出,ChatGPT可生成與人類參與者相似的輸出,並具有可靠性。討論了對人類數據收集的影響,包括機會和數據捏造等挑戰。 PubMed DOI

生成式人工智慧目前不太用於文本分析,但在評估情緒上有潛力。一研究比較了ChatGPT和LIWC工具的分析結果,發現兩者關聯較小,ChatGPT在22%情況下計算LIWC分析時出錯。這顯示大型語言模型處理詞語和數字可能不可靠,使用時要謹慎。 PubMed DOI

研究比較了在網路諮商中使用 GPT-3.5 和 GPT-4 模型進行粵語情感分析的效果,發現ChatGPT模型表現優異,建議可應用在粵語等資源有限的語言及心理治療領域的情感分析。 PubMed DOI

討論了最新研究,認為大型語言模型如BERT和ChatGPT有潛力改革心理評估。這些模型在語言處理任務中表現準確,且受歡迎。成功因有效表達上下文單詞。建議透過適當驗證,專注自然語言溝通可改變心理健康評估。 PubMed DOI

研究探討大型語言模型如ChatGPT是否能從社群媒體貼文推斷人格特質,結果顯示模型可準確推斷大五人格特質,尤其對女性和年輕人更準確。這種能力或許讓心理評估更普及,但也引發隱私和監管疑慮。 PubMed DOI

GPT-4的發布引起了人們對大型語言模型(LLMs)普遍應用的關注。這篇論文探討了ChatGPT對人類與電腦互動、心理學和社會的影響,著重於其技術基礎、對話界面的改進、心理效應、商業和社會應用,以及未來的發展方向。 PubMed DOI

研究評估了ChatGPT對2020年葡萄牙國家住院醫師選拔考試題目的分析能力。使用150道考題測試ChatGPT,計算每題難度。結果顯示ChatGPT預測的難度與實際相關,且能辨識較簡單問題。總結來說,研究顯示ChatGPT在預測考題難度方面有潛力,無需實際測試即可評估心理特性。 PubMed DOI

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

這項研究探討大型自然語言模型如GPT-3和GPT-4如何幫助社會心理學研究者生成新假設。由於該領域發現眾多,整合想法變得困難,可能會錯過重要聯繫。研究採用兩種方法:首先對GPT-3進行微調,使用數千篇社會心理學摘要,專家評分後發現其生成的假設在清晰度和創新性上與人類相似;其次不微調使用GPT-4,結果顯示其生成的假設在多個維度上評分更高。總體來看,這些模型能有效支持假設生成。 PubMed DOI