清华大学与面壁智能的科研团队在《自然・机器智能》发表了一项重要研究成果,他们创新性地提出了“能力密度”这一全新指标,用于衡量单位参数所能承载的有效智能水平。这一指标的提出,为评估模型性能提供了新的视角,研究团队明确指出,在追求模型性能提升的过程中,应更加注重能力密度,而非单纯地扩大模型规模。
为了深入探究能力密度的发展规律,科研团队对51个主流开源大模型展开了系统统计。统计结果显示,能力密度呈现出快速增长的趋势,大约每3.5个月就会翻倍。这一变化意味着,在完成同等任务时,模型所需的参数量可以实现指数级的下降,这无疑为模型的高效化发展指明了方向。
研究团队特别强调,提升能力密度并非简单的模型压缩。如果只是将大量知识“生硬地塞进小模型”,就如同把大字典强行装进小本子,会导致模型智力受损,无法发挥出应有的性能。要实现真正的高能力密度,需要在数据、算力和算法这三个关键要素上进行协同设计,通过优化它们的组合方式,来提升模型的整体效能。
基于这一研究成果,面壁智能迅速推出了0.5B - 2B系列的“高密度”模型。经过实际测试,这些模型在同等下游任务中的表现十分出色,性能达到了7B - 13B规模模型的水平。而且,这些模型已经实现了规模化应用,成功落地于手机语音助手、车载交互系统以及智能家居边缘盒子等多个领域。在实际运行中,它们的推理延迟小于100毫秒,端侧功耗更是下降了45%,展现出了强大的实用性和高效性。
面壁智能的CEO李丹透露,接下来,公司将与清华大学进一步深化合作,把能力密度提升曲线纳入模型研发的关键绩效指标(KPI)体系。他们的目标是,在2026年推出能够在NPU手表端运行的“背包级”个人大模型,以此推动“模型小型化”生态的发展,让智能模型能够更加便捷地融入人们的日常生活。











