原始文章

這項研究探討「群眾智慧」在預測中的應用,利用12個大型語言模型(LLMs)對31個二元問題進行預測,並與925位人類預測者的表現進行比較。結果顯示,LLM的表現超越無資訊基準,準確度與人類相似,且也展現出類似的偏見。當LLM預測受到中位數人類預測影響時,準確度提升17%到28%。最準確的結果來自於簡單平均人類和機器的預測,顯示LLMs能透過聚合方法達到與人類相當的預測準確度。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在推理任務上表現優秀,挑戰傳統模型。雖然有限制,但透過提供範例和擴展網絡等方法,可以增強性能,類似人類思考。分析LLM的錯誤可洞察人類偏見。LLMs帶來希望,從聯想主義角度研究智能和推理,透過認知心理學工具更深入了解人類思維。 PubMed DOI

研究團隊研發了新的學習方式,讓大型語言模型在醫學問答更準確。他們專注於三個醫學問答資料庫,並引入LLM-Synergy架構,包含Boosting的多數投票和Cluster的動態模型選擇。這些方法在資料庫中表現比單一模型更好,準確率範圍從35.84%到96.36%。這個架構展現了提升醫學問答任務並因應未來挑戰的潛力。 PubMed DOI

研究發現,大型語言模型(LLMs)如GPT-4和RoB-ELoC在分類成年人反思職場衝突故事時表現優異,比人類編碼者更可靠。RoB-ELoC和少樣本GPT-4特別適合作為分類器。LLMs能自動化編碼社會科學研究中的複雜概念,有助整合到研究流程中。 PubMed DOI

研究指出,使用大型語言模型(LLMs)取代人類受試者進行數據收集,引入了新方法「number needed to beat」(NNB),用來評估人類數據質量與頂尖LLM如GPT-4相比的差距。實驗結果顯示,在英語任務中,NNB大於1,但各任務有所不同。結合LLM和人類數據的「centaur」方法被證實比單獨使用更有效。研究考量了數據成本和質量的權衡,建議此框架可協助判斷何時以及如何運用LLM生成的數據。 PubMed DOI

這項研究探討大型語言模型(LLMs)在評估科學報告及臨床試驗方法學的有效性。研究比較了LLMs與人類評審的準確率,結果顯示人類的準確率高達89%至75%,而LLMs的準確率則較低,PRISMA介於63%到70%之間。雖然結合LLM的評分能提升準確率,但仍不及人類。研究指出,人類與AI合作能提高效率,特別是在較簡單的任務上,但對於複雜的評估則效果有限。 PubMed DOI

集體智慧在群體、組織和社會中非常重要,因為它能促進協調與分散的認知,超越個人能力,甚至專家的能力。資訊科技透過線上預測市場、結構化討論論壇和眾包平台來增強這種智慧。大型語言模型的出現改變了資訊的聚合和傳遞方式,帶來了新的機會與挑戰。我們需要探討這些模型的潛在好處、風險及相關政策,並深入研究它們如何影響我們解決複雜問題的能力。 PubMed DOI

在研究中,我探討了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,對複雜行為科學實驗結果的預測能力。結果顯示,GPT-4在預測情感、性別和社會認知方面,與119位人類專家的表現相當,相關性高達0.89,而GPT-3.5則僅有0.07。在另一項研究中,讓大學參與者與GPT-4驅動的聊天機器人互動,提升了他們的預測準確性。這些結果顯示,人工智慧在預測行為主張的實證支持上,可能成為有價值的工具,並強調人類與AI合作的潛力。 PubMed DOI

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

大型語言模型(LLMs)因在知識性任務上表現優於人類而受到關注,但在社會情境的準確評估和建議適當行為方面仍有不確定性。一項研究中,五個聊天機器人與276名人類參與者進行比較,結果顯示Claude、Copilot和you.com的智能助手在社交情境建議上超越人類,且其行為評價接近專家意見。這顯示LLMs在社會判斷上具潛力,但其廣泛應用仍面臨挑戰與風險。 PubMed DOI

這篇文章探討如何利用大型語言模型(LLMs)來分析和預測公民的政策偏好,特別是針對巴西2022年總統候選人的政府計畫。研究採用訓練-測試交叉驗證,結果顯示LLMs在預測個人政治選擇上表現優於傳統的投票假設,且在估算整體偏好時也更準確。這項研究顯示LLMs能捕捉複雜的政治細微差異,為未來的數據增強研究提供了新方向,並與參與式治理和數位創新主題相關聯。 PubMed DOI