原始文章

看起來你提到的討論是基於Berger (2024)和Carrillo等人 (2024) 在社會科學中關於機器輔助假設生成的觀點。如果你想深入探討他們評論中提出的具體問題或主題,或者需要幫助進一步發展你的討論,請提供更多細節或背景資訊! PubMed DOI


站上相關主題文章列表

討論眼科研究使用大型語言模型(LLMs)如ChatGPT的影響,探討其好處、道德疑慮和解決方案。LLMs在研究中有幫助,但也帶來道德挑戰,尤其是科學誠信。建議眼科期刊制定針對LLM使用的指南,強調訂定LLM道德指南的重要性,確保在眼科研究中負責任使用。 PubMed DOI

大型語言模型(LLMs)並不是人類語言處理的精確模型,但它們在模擬語言方面非常有效。這使它們在心理語言學中具有實用、比較和哲學上的價值。 PubMed DOI

研究發現GPT-3.5在模擬人類行為上有限制,容易出現「正確答案」效應。即使改變資料或答案,結果仍一致。有研究顯示GPT-3.5傾向右派價值觀。這顯示在社會科學中使用大型語言模型存在挑戰,也引發對未來由AI主導可能帶來的思想單一性的擔憂。 PubMed DOI

這封信討論了大型語言模型(LLMs)與認知科學的關係,強調了資訊理論和統計語言模型對理解人類溝通的重要性。它探討了社會語言學和語言人類學如何豐富了這個框架,提出像是元語用功能和指示性這樣的概念可以增進我們對溝通的理解。作者建議,在大型語言模型和人工智慧時代,跨學科對話在計算語言學、社會語言學、語言人類學以及認知和社會心理學之間至關重要,以促進我們對人類溝通和人類-人工智慧互動的理解。 PubMed DOI

研究探討2020年6月1日至2023年12月31日期間,針對大型語言模型(LLMs)的主題建模方法。使用Web of Science和LexisNexis數據,聚焦於"Large language model"、"LLM"和"ChatGPT"等LLMs。評估LDA、NMF、CTM和BERTopic等方法,發現BERTopic表現最佳。新聞報導著重LLM應用,學術論文則更專業。研究提供LLMs未來挑戰見解,對LLM服務業者有幫助。 PubMed DOI

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

您的分析指出大型語言模型(LLMs)中存在的政治偏見問題。透過對24個對話型LLM進行測試,發現它們在政治問題上主要偏向左派觀點。雖然五個基礎模型的表現不佳,但這也讓結果的可靠性受到質疑。此外,研究顯示LLMs可以透過有監督的微調受到特定政治取向影響,這對公共話語的塑造有重要意義。這些潛在的偏見可能影響社會認知與決策,因此在開發和使用LLMs時,必須仔細考量其政治影響。 PubMed DOI

這個教程強調大型語言模型(LLMs)在行為科學中的潛力,並指出像Hugging Face這樣的開源框架在透明度和可重現性上的優勢。它提供了使用這些工具的入門指南,包括特徵提取、模型微調和生成行為反應,並附有可執行的代碼,還在GitHub上分享。教程也探討了可解釋性和安全性挑戰,並提供了語言建模與行為科學交集的未來研究機會的見解。 PubMed DOI

這項研究探討大型自然語言模型如GPT-3和GPT-4如何幫助社會心理學研究者生成新假設。由於該領域發現眾多,整合想法變得困難,可能會錯過重要聯繫。研究採用兩種方法:首先對GPT-3進行微調,使用數千篇社會心理學摘要,專家評分後發現其生成的假設在清晰度和創新性上與人類相似;其次不微調使用GPT-4,結果顯示其生成的假設在多個維度上評分更高。總體來看,這些模型能有效支持假設生成。 PubMed DOI

Banker等人(2024)的研究探討了利用GPT-3和GPT-4生成社會心理學的新假設,但指出這種方法忽略了人類研究者和大型語言模型的局限性,以及研究者的個人價值觀和現有文獻的重要性。他們提出了一個以人為中心的工作流程,強調研究者與GPT-4的迭代合作,旨在透過認識和利用每位研究者的獨特貢獻來增強假設生成過程,而非取代研究者。 PubMed DOI