近日,中国科学院自动化研究所李国齐、徐波团队联合沐曦metaX公司,成功研发出全球首款基于国产GPU算力集群的大规模类脑脉冲基础模型——“瞬悉1.0”(SpikingBrain-1.0)。这款人工智能系统突破了传统Transformer架构的局限,通过模拟人脑神经元激活机制,实现了能耗降低与性能提升的双重突破,尤其在美国对高端AI芯片实施出口管制的背景下,展现出重要的战略价值。
与传统依赖海量数据和算力的AI模型不同,“瞬悉1.0”的核心创新在于其类脑脉冲计算范式。该模型借鉴了人脑神经元“按需激活”的特性,仅在接收到关键信息时触发信号脉冲,其余时间保持“静默”状态。这种事件驱动机制使系统在处理任务时能耗大幅降低,同时响应速度较传统模型提升最高达100倍。研究团队透露,模型在多任务语言理解(MMLU、CMMLU、Ceval)和常识推理(ARC、HS)等基准测试中,性能与主流开源Transformer模型持平,但预训练数据量仅为其2%。
“瞬悉1.0”的突破性不仅体现在技术层面。作为中国首个大规模类脑脉冲基础模型,它首次在国产GPU算力集群上构建了完整的训练与推理框架,解决了脉冲驱动下模型性能退化的难题。其超长序列处理能力在法律文书分析、医学影像解读、高能粒子物理实验等复杂场景中表现突出,例如在DNA序列分析和分子动力学轨迹模拟中,效率较传统方法显著提升。
中国科学院自动化研究所指出,该模型为新一代AI发展开辟了非Transformer架构的技术路线。其类脑设计理念或将推动低功耗神经形态计算理论的革新,并为国产AI芯片设计提供新思路。目前,研究团队已开源“瞬悉1.0-7B”模型,并开放“瞬悉1.0-76B”测试平台,供全球开发者体验其高效节能的推理服务。
当前主流AI模型普遍面临高能耗困境。以ChatGPT为代表的系统需依赖配备英伟达高端芯片的大型数据中心,训练阶段消耗巨量电力与冷却资源,运行阶段处理长文本时仍因并行计算导致效率下降。相比之下,“瞬悉1.0”通过模拟人脑选择性处理信息的机制,在完成复杂任务时仅激活必要神经元,大幅减少了无效计算。研究人员在论文中强调,这一实践为国产算力平台上的高效大模型研发提供了关键经验,尤其适用于资源受限场景下的规模化部署。
据技术文档显示,“瞬悉1.0”的深度类脑架构使其在处理超长序列数据时具有独特优势。例如,在分析法律合同或医学报告等长文本时,系统可精准聚焦关键信息,避免传统模型因并行处理所有词汇导致的内存压力与速度衰减。这种特性不仅降低了运行成本,也为环境友好型AI发展提供了新方向。