在AI大模型加速向应用端渗透的背景下,全球算力巨头英伟达近日推出全新Nemotron 3系列开放模型,通过模块化设计为开发者提供从轻量级到超大规模的AI开发工具链。该系列包含Nano、Super和Ultra三个版本,分别针对不同场景的效率与性能需求进行优化,标志着AI基础设施供应商正从硬件竞争转向生态构建。
作为系列中最先落地的型号,Nemotron 3 Nano已开放线上服务。该模型采用异构混合专家(MoE)架构,总参数达300亿但运行时仅激活30亿参数,在保持专业性能的同时将能耗降低60%。实测数据显示,其推理速度较前代提升4倍,支持100万token的上下文窗口,可胜任代码生成、文档摘要等日常任务。目前开发者可通过Hugging Face平台直接调用,Baseten、Deepinfra等十余家云服务商已部署推理接口。
面向复杂任务场景的Super与Ultra版本计划于2026年上半年发布。其中Super模型聚焦多智能体协作,通过动态参数激活机制实现1000亿参数规模下的高效训练;定位科研级推理的Ultra版本则将参数规模扩展至5000亿级,专门服务于需要深度策略规划的AI工作流。这两个型号均采用NVIDIA Blackwell架构的4位NVFP4训练格式,在保证模型精度的前提下将显存需求压缩至传统方法的1/8,使得现有硬件设施即可支撑超大规模模型训练。
为降低开发门槛,英伟达同步开放了3万亿token规模的训练数据集,涵盖预训练、后训练及强化学习全流程。其中Nemotron Agentic Safety Dataset提供真实场景的遥测数据,帮助开发者评估智能体系统的安全性。配套发布的NeMo Gym训练环境与NeMo RL强化学习库,则构建起从模型训练到性能验证的完整工具链,相关代码已在GitHub和Hugging Face开源。
在生态合作方面,Nemotron 3系列已获得LM Studio、vLLM等主流开发框架支持,Prime Intellect等企业正将其训练环境集成至工作流系统。云服务层面,除亚马逊AWS通过Bedrock服务提供无服务器部署方案外,Google Cloud、Microsoft Foundry等平台也已完成适配测试。企业级基础设施方面,Couchbase、DataRobot等数据管理平台均宣布支持Nemotron 3模型部署。
这种"硬件+模型+工具链"的全栈开放策略,反映出算力供应商的商业逻辑转变。通过降低AI开发门槛吸引更多应用创新,既能扩大GPU市场需求,又能巩固自身在AI生态中的核心地位。随着Nano版本在消费级市场的率先普及,这场由基础设施供应商主导的AI平民化运动正在重塑产业格局。







