ITBear旗下自媒体矩阵:

​中国科研团队发布类脑脉冲大模型“瞬悉” 1.0 开启新一代人工智能发展新路径​

   时间:2025-09-09 08:44:24 来源:中国新闻网编辑:快讯团队 IP:北京 发表评论无障碍通道
 

中国科学院自动化研究所科研团队近日宣布,成功研发并发布全球首个基于国产GPU算力集群的类脑脉冲大模型——“瞬悉”1.0(SpikingBrain-1.0)。该模型通过创新性的“内生复杂性”理论架构,实现了在超长序列处理、训练效率及生态构建等领域的多项突破,为人工智能发展开辟了低功耗、高效率的新路径。

与传统基于Transformer架构的大模型不同,“瞬悉”1.0以脉冲神经元为核心计算单元,首次提出大规模类脑线性基础模型架构,并完全依托国产GPU平台完成全流程训练与推理。这一创新解决了脉冲驱动下模型性能退化的难题,使其在法律文档分析、医学影像处理、高能粒子物理实验等超长序列任务中展现出显著效率优势。例如,在DNA序列分析和分子动力学轨迹模拟场景中,模型的处理速度较传统方法提升了数个数量级。

研发团队负责人李国齐研究员介绍,模型通过动态阈值脉冲化策略与混合专家模型结合,实现了超过69%的稀疏度,长序列脉冲占比仅1.85%,大幅降低了计算资源消耗。在训练阶段,模型仅需主流大模型2%的预训练数据量,即可在多任务语言理解、常识推理等任务中达到同等性能水平;推理阶段则利用脉冲神经元的事件驱动特性,将复杂度降至常数级别,显存占用不随序列长度增加而显著上升。

技术突破体现在四大核心领域:其一,模型训练复杂度为线性或近线性,显著提升长序列训练效率;其二,推理效率实现数量级提升,尤其适用于超长序列场景;其三,构建了适配国产GPU集群的完整生态,包括高效训练框架、算子库及并行策略;其四,通过多尺度稀疏机制降低能耗,为下一代神经形态芯片设计提供了理论支撑。

对比主流Transformer模型,“瞬悉”1.0的优势在于突破了序列长度对计算资源的制约。传统模型训练成本随序列长度平方级增长,推理显存占用线性增加,而“瞬悉”1.0通过脉冲神经元的内生动力学特性,将计算复杂度控制在线性范围内。研究团队已公开模型代码、测试平台及中英文技术报告,并强调该架构为构建自主可控的非Transformer生态提供了可行性范本。

据悉,该模型的理论基础源于对大脑神经元工作机制的深度模拟。研究人员揭示,现有线性注意力机制本质上是树突计算的简化形式,而“瞬悉”1.0通过建立脉冲神经元与线性注意力的数学联系,为模型复杂度与性能的同步提升指明了方向。这一成果不仅推动了类脑计算的发展,也为低功耗人工智能设备的落地应用奠定了技术基础。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version