Recent years have witnessed the rapid advancements of large language models (LLMs) and their expanding applications, leading to soaring demands for computational resources. The widespread adoption of test-time scaling further aggravates the tension between model capability and resource consumption, highlighting the importance of inference efficiency. However, a unified metric that accurately reflects an LLM's efficiency across different model sizes and architectures remains absent. Motivated by the correlation between compression and intelligence, we introduce information capacity, a measure of model efficiency based on text compression performance relative to computational complexity. Larger models can predict the next token more accurately, achieving greater compression gains but at higher computational costs. Empirical evaluations on mainstream open-source models show that models of varying sizes within a series exhibit consistent information capacity. This metric enables a fair efficiency comparison across model series and accurate performance prediction within a model series. A distinctive feature of information capacity is that it incorporates tokenizer efficiency, which affects both input and output token counts but is often neglected in LLM evaluations. We assess the information capacity of 49 models on 5 heterogeneous datasets and observe consistent results on the influences of tokenizer efficiency, pretraining data, and the mixture-of-experts architecture.


翻译:近年来,大型语言模型(LLMs)的快速发展及其应用范围的不断扩大,导致对计算资源的需求急剧上升。测试时扩展的广泛采用进一步加剧了模型能力与资源消耗之间的紧张关系,凸显了推理效率的重要性。然而,目前仍缺乏一个统一的指标,能够准确反映不同模型规模和架构下LLM的效率。受压缩与智能之间相关性的启发,我们提出了信息容量这一概念,它是一种基于文本压缩性能相对于计算复杂度的模型效率度量。更大的模型能够更准确地预测下一个词元,从而获得更高的压缩增益,但计算成本也更高。对主流开源模型的实证评估表明,同一系列中不同规模的模型展现出一致的信息容量。该指标使得跨模型系列的公平效率比较以及同一模型系列内的准确性能预测成为可能。信息容量的一个显著特点是它包含了分词器效率,这会影响输入和输出的词元数量,但在LLM评估中常被忽视。我们在5个异构数据集上评估了49个模型的信息容量,并观察到关于分词器效率、预训练数据和专家混合架构影响的一致结果。

0
下载
关闭预览

相关内容

论文浅尝 | GEOM-GCN: Geometric Graph Convolutional Networks
开放知识图谱
14+阅读 · 2020年4月8日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员