在人工智能技术持续突破的背景下,英伟达正式发布面向企业级多智能体系统的新一代开源大语言模型Nemotron 3 Super。该模型采用混合Mamba-Transformer骨干网络架构,结合潜在专家混合模型(latent MoE)与多token预测(MTP)技术,在推理效率上实现显著突破——总参数量达1200亿的模型仅需激活120亿参数即可运行,原生支持100万token的超长上下文处理能力,其推理吞吐量较前代产品提升超过五倍。
与行业常见的API服务模式不同,英伟达此次采取全面开源策略,不仅公开模型权重参数,还同步开放预训练及后训练阶段使用的完整数据集,并附上全流程训练方案。这种开放模式为企业用户提供了深度定制化空间,可基于自身业务需求调整模型性能,同时降低技术依赖风险。据技术文档披露,模型在数学推理、代码生成等复杂任务中展现出显著优势,尤其在多智能体协同场景下,其长上下文处理能力可支持跨领域知识整合。
AI搜索领域头部企业Perplexity已率先完成模型接入测试,成为首个商业化应用案例。该公司技术团队表示,Nemotron 3 Super的超长上下文窗口使其能够直接处理完整文献或代码库,大幅减少信息截断导致的误差。与此同时,企业软件巨头Palantir与西门子宣布启动部署计划,前者将模型整合至其数据分析平台,后者则聚焦工业自动化场景的智能决策优化。行业分析师指出,开源策略与硬件生态的深度绑定,或将成为英伟达巩固AI市场地位的关键举措。











