原始文章

這項研究探討大型自然語言模型如GPT-3和GPT-4如何幫助社會心理學研究者生成新假設。由於該領域發現眾多,整合想法變得困難,可能會錯過重要聯繫。研究採用兩種方法:首先對GPT-3進行微調,使用數千篇社會心理學摘要,專家評分後發現其生成的假設在清晰度和創新性上與人類相似;其次不微調使用GPT-4,結果顯示其生成的假設在多個維度上評分更高。總體來看,這些模型能有效支持假設生成。 PubMed DOI


站上相關主題文章列表

研究用認知心理學方法評估GPT-3,發現在某些任務表現不錯,但在因果推理和有向探索方面較弱。這些結果有助於我們更了解大型語言模型,也提出使用認知心理學工具深入研究高階人工智慧代理的建議。 PubMed DOI

人工智慧語言模型如ChatGPT在教育、臨床決策和學術寫作上有潛力,但準確性、透明度和道德影響仍受關注。研究指出,ChatGPT在生成文本和總結資訊方面表現優秀,但解釋數據和回答科學問題能力有限,可能傳播不實訊息。研究者需公開討論人工智慧語言模型的利弊,並透明揭露使用情況。 PubMed DOI

最新的大型語言模型(LLMs)如GPT-3.5和GPT-4能夠產生類似人類的文字,對社會科學家相當有幫助,可用來建立詞彙相似度的標準。研究中使用GPT-4開發了一個典型性評估標準,並與其他模型相比較,以評估其與人類判斷的相關性。GPT-4在測量文學書籍和美國國會成員推文的典型性方面表現優異,超越了先前的最先進標準,且無需特定數據訓練,顯示了零-shot學習的重大進步。 PubMed DOI

研究比較了GPT-4與人類寫科學文章引言的能力,結果顯示兩者在可發表性、可讀性和內容品質上差不多。大部分人更喜歡GPT-4寫的引言,兩者寫的引言幾乎沒有太大差異。研究指出,GPT-4在科學研究引言寫作上是有價值的工具。 PubMed DOI

研究使用GPT-4建立英文心理語言學數據集,發現其語義判斷與人類相關,有時甚至超越人類水準。研究指出GPT-4生成的範疇與人類有系統性差異,對統計模型影響有限。研究討論了使用GPT-4的影響和限制,提及數據質量和有效性問題。數據集包含30,000個GPT-4判斷,可供進一步研究。 PubMed DOI

GPT-4的發布引起了人們對大型語言模型(LLMs)普遍應用的關注。這篇論文探討了ChatGPT對人類與電腦互動、心理學和社會的影響,著重於其技術基礎、對話界面的改進、心理效應、商業和社會應用,以及未來的發展方向。 PubMed DOI

這項研究探討了支撐ChatGPT的GPT模型在多語言心理文本分析中的有效性。研究分析了15個數據集,包含47,925條推文和新聞標題,評估GPT在12種語言中檢測情感、情緒等心理構念的能力。結果顯示,GPT的表現超越傳統方法,且隨著版本更新準確性提升,特別是在不常用語言中,具成本效益。研究建議GPT能民主化自動文本分析,促進跨語言研究,並提供範例代碼和教學。 PubMed DOI

這篇論文探討了ChatGPT如何幫助人類產生創意解決方案。透過五個實驗,參與者使用ChatGPT(GPT-3.5)進行腦力激盪,針對選擇禮物、創造玩具、重新利用物品及設計創新家具等任務提出想法。研究發現,與傳統方法相比,ChatGPT顯著提升了創造力,尤其在產生漸進式新想法方面表現突出。研究建議,ChatGPT擅長將不相關的概念融合,產生更清晰且具表達力的建議。 PubMed DOI

這項研究系統性評估了GPT-3.5和GPT-4在心理科學領域的四個關鍵能力。首先,作為研究圖書館員,GPT-4在生成虛構參考文獻的準確性上明顯優於GPT-3.5。其次,GPT-4在識別研究倫理問題方面表現出色,成功糾正了大部分明顯和微妙的違規。第三,兩者都能重現文化偏見,顯示出數據生成的潛力。最後,兩者在預測新數據方面的能力有限。總體來看,雖然GPT模型有所進步,但在生成新見解和可靠參考文獻上仍有待加強。 PubMed DOI

Banker等人(2024)的研究探討了利用GPT-3和GPT-4生成社會心理學的新假設,但指出這種方法忽略了人類研究者和大型語言模型的局限性,以及研究者的個人價值觀和現有文獻的重要性。他們提出了一個以人為中心的工作流程,強調研究者與GPT-4的迭代合作,旨在透過認識和利用每位研究者的獨特貢獻來增強假設生成過程,而非取代研究者。 PubMed DOI