近日,深度求索公司推出的实验性版本模型DeepSeek-V3.2-Exp引发行业关注。寒武纪科技宣布,已成功完成对该模型的适配工作,并同步开源了配套的大模型推理引擎vLLM-MLU源代码。这一进展标志着国产AI芯片与前沿大模型的技术协同迈入新阶段。
作为国内AI芯片领域的领军企业,寒武纪始终将大模型生态建设视为战略重点。公司透露,通过长期技术积累与生态布局,在DeepSeek-V3.2-Exp发布当日即实现"day 0适配",展现出强大的技术响应能力。该适配成果覆盖了从基础架构到性能优化的全链条,为后续商业化应用奠定基础。
技术实现层面,寒武纪采用多维度优化策略:通过Triton算子开发实现模型架构的快速兼容,运用BangC融合算子技术挖掘硬件性能极限,并结合计算通信并行策略提升整体效率。特别值得关注的是,新模型搭载的DeepSeek Sparse Attention机制与寒武纪芯片的计算特性形成协同效应,在长序列处理场景中可显著降低训练与推理成本。
此次开源的vLLM-MLU推理引擎,是寒武纪针对MLU架构定制开发的解决方案。该引擎通过深度优化内存管理与计算流,使DeepSeek-V3.2-Exp在寒武纪平台上的运行效率达到行业领先水平。开发者可通过开源代码直接部署,大幅缩短从模型适配到业务落地的周期。
行业分析师指出,寒武纪与深度求索的合作模式具有示范意义。一方面验证了国产AI芯片对前沿大模型的技术支撑能力,另一方面通过开源生态构建了可持续的创新环境。这种软硬协同的发展路径,或将推动国内AI产业形成更具竞争力的技术体系。