Large Language Models and the Wisdom of Small Crowds.
大型語言模型與小眾智慧。
Open Mind (Camb) 2024-06-03
研究指出,使用大型語言模型(LLMs)取代人類受試者進行數據收集,引入了新方法「number needed to beat」(NNB),用來評估人類數據質量與頂尖LLM如GPT-4相比的差距。實驗結果顯示,在英語任務中,NNB大於1,但各任務有所不同。結合LLM和人類數據的「centaur」方法被證實比單獨使用更有效。研究考量了數據成本和質量的權衡,建議此框架可協助判斷何時以及如何運用LLM生成的數據。
PubMedDOI
Quantifying the uncertainty of LLM hallucination spreading in complex adaptive social networks.
複雜適應社會網絡中 LLM 幻覺擴散的不確定性量化。
Sci Rep 2024-07-16
Enabling Energy-Efficient Deployment of Large Language Models on Memristor Crossbar: A Synergy of Large and Small.
在 Memristor Crossbar 上實現大型語言模型的能源效率部署:大與小的協同作用。
IEEE Trans Pattern Anal Mach Intell 2024-10-18
Efficiency at scale: Investigating the performance of diminutive language models in clinical tasks.
規模效益:探討小型語言模型在臨床任務中的表現。
Artif Intell Med 2024-10-29
Research on Fine-Tuning Optimization Strategies for Large Language Models in Tabular Data Processing.
大型語言模型在表格數據處理中的微調優化策略研究。
Biomimetics (Basel) 2024-11-26