3月10日,英伟达创始人黄仁勋罕见地发布了一篇博客,并提出了一个根本性的范式转换:
AI不再是预先编写的软件,而是实时生成的智能。
人工智能也并非单一的模型或应用程序,而是如同电力和互联网一样必不可少的基础设施。
这一论断看似超前,但背后却有一套清晰的架构逻辑支撑:
能源→芯片→基础设施→模型→应用
自下而上递进,上层需求拉动下层投入,形成动态传导的技术栈。这并非简单的分层,而是物理约束逐级向上传导的链条。
近几年来,智能已经从预存指令的检索发展到实时生成的推理,而整个计算范式也正在悄无声息地发生根本性重构。
01
范式转换:从预制的软件到实时的智能
氛围编程(Vibe Coding)概念兴起之前,在那些经历过传统计算时代的老一代程序员们眼中,软件必须依赖于人类预设的算法,数据必须经过结构化处理才能被检索。
但短短几年,AI就轻松打破了这个流传了几十年的经典模式:
计算机已经能够理解图像、文本、声音等非结构化信息,并根据上下文实时生成回应。
在黄仁勋看来,AI的每次推理都是一次全新的创造实践,因此支撑智能生成的底层AI架构也必须重新设计。
在他设想的五层架构中,能源被置于最底层,而且不存在“抽象层”。
Transformer架构中,注意力机制下生成的每一个token,本质上都是电子流动、热量管理和能量转化为计算的结果。
能源不仅是成本,还是物理层面上智能生产规模的上限。
自此之上,芯片决定算力转化的效率,基础设施成为芯片集群的工厂,模型理解多领域的知识,而应用最后承载商业价值。
在这个架构上运行的链条,任何一层存在瓶颈都会极大程度上制约智能生成的整体规模。
对于英伟达和同在美国的Google、OpenAI等龙头企业来说,芯片、基础设施和模型三个层级基本已经打通,毫无疑问处于世界领先水平,但底层的能源仍是最大的限制。
不惜成本建设数据中心以及积极探索太空算力等举措足以证明底层能源的限制对上层应用的商业路径产生极大阻碍。
如果将这一框架置于国内产业环境之中,约束与机会同样并存。
在能源供给方面,中国在电力基础设施上具备绝对优势,但芯片和高带宽内存(HBM)等环节明显受制于国际供应链,目前国产算力在训练阶段的集群性能和生态适配上都存在显著差距,且差距有增加的趋势。
但需要注意的是,推理阶段的需求已经呈现出差异化。通过模型量化、混合专家架构等优化手段,中端芯片亦可支持多数应用场景,而这正是让黄仁勋赞不绝口的DeepSeek最擅长的领域。
但现阶段,要在基础模型能力上追逐国际顶尖水平仍显得不切实际。但结合此前的判断:智能体爆发加上AI能力溢出让模型之间的差距被压缩,国产模型和国际顶尖模型之间的体验差距已经小于参数差距。
应用层若是能精准定位“够用就好”的需求区间,国产模型凭借极致的性价比就必然存在局部突围的可能性。
02
战略转向:从硬件绑定到生态连接
面对一只龙虾引起的应用层爆发,英伟达的策略也发生了微妙的变化。
根据Wired报道,英伟达也正在走国内AI企业的养虾之路,计划推出开源AI代理平台NemoClaw。
但不同之处在于,国内AI企业几乎将几个月前手机助手问世时的场面原封不动又复刻了一遍:开源项目诞生后,各家接连推出自己的类似功能产品,然后关闭生态,各自倾销自己的滞销token。
而英伟达选择了开源,且无论企业是否使用英伟达芯片都可以接入平台,同时提供了安全与隐私工具以应对企业级部署的可靠性挑战。
它没有做第一批养虾的企业,却从软件和硬件层面上提供了最适合养虾的“水缸”。
与此同时,英伟达也发现,如果它在人们心中的印象还是那个GPU企业,那就不可能在大模型和智能体领域内占据如今硬件领域的地位。
因此,这一举措取消了此前的平台大多要求企业使用自家芯片的限制。不过,这并非放弃了硬件层面上的底层优势,而是通过降低参与门槛,把自身的角色升级成了“代理生态的基础设施提供方”,试图成为代理任务的默认运行环境。
在这篇博客中,虽然没有明说,但黄仁勋想要表达的意思很明确:
当代理任务成为连接应用和底层算力的核心时,谁能定义调度规则,谁就能在五层架构的传导链条中占据上游的议价权。
而这里的调度规则,至少会包含以下三个维度:
一是模型路由:谁能定义路由算法,谁就能决定流量流向哪个模型厂商;
二是工具与工作流编排:谁定义工具调用的API和执行顺序,谁就能决定企业软件被AI调用的方式;
三是算力映射:谁定义任务对算力的需求特征,谁就能决定底层芯片的设计方向。
与其被动响应需求,不如主动定义需求。
同期的另一项计划也显示出英伟达转型的决心:
英伟达预计在未来五年内投入260亿美元开发一款开放权重的模型。
所谓开放权重,就是公开模型的参数,但保留许可限制,既能满足企业对透明度与定制化的需求,又能凭借最擅长的软硬件协同优化能力维持技术主导权。
根据英伟达高管透露的信息,该模型的研发除了提供AI能力以外,更重要的目的是对存储、网络和数据中心进行一次极限压力测试,以此定义下一代硬件架构。
据称,国产模型DeepSeek-V4可能完全由华为昇腾系列芯片训练,此后国产算力可能在国产模型的训练中所占比重逐步上升;而英伟达的首款模型预计在2026年底或2027年初问世。据此推算,这一时间窗口会与全球算力格局演变的关键周期高度重叠。
03
应用挑战:从“能执行”到“可信执行”
当黄仁勋口中的“智能”自上而下扎根于物理设施的同时,自下而上也在面临着应用层的可靠性挑战。
NemoClaw平台明确指向企业级市场的底气,正是着重强调的安全与隐私工具。
英伟达的动向,恰好回应了当前代理技术最核心的矛盾:模型能力的提升无法直接转化为生产环境的可靠性。
在实际的生产环境中,规模化运营的公司绝不会轻易使用OpenClaw这种高风险的产品。
一周之前,DeepLearning.AI创始人吴恩达博士在一次访谈中也明确指出:高风险企业应用中,完全自主的模型与生产级可靠性之间仍有巨大缺口。
无论是此前的大语言模型、如今的智能体还是未来的通用人工智能(AGI),人们对AI的核心需求其实从未改变:自动化执行任务。
这就意味着,AI产品的设计理念中必须包含智能自主决策。智能化和自主化程度越高,离人们的目标就越近。
但在实际业务场景中,容错率低的吓人,系统需要经过成千上万次运行后依然保持稳定,这需要精细的工作流设计和分布验证,而不仅仅依赖模型的“智商”。
英伟达在平台中引入安全审计和权限管控等相关机制,是目前国内外各种“Claw产品”最欠缺的部分。
代理工具的价值早已不是“能否执行”,而是如何“可控执行”。
Perplexity近期提出的“Everything is Computer”就是这一命题最好的实证参考。
其企业级方案在金融研究场景中实现了“16000次查询节省160万美元人力成本”效果的同时,也设计了敏感操作审批、完整审计轨迹、紧急中止开关等安全机制,回应了企业对于代理工具不可预测性的担忧。
事实证明,基础模型在达到一定阈值后,决定用户体验的就不再是参数规模,而是产品如何管理风险、嵌入流程并验证结果。
04
结语:早期阶段的选择
英伟达的一系列动作,把一个根本的问题摆在了国产AI企业的眼前:
当基础设施的定义权已经集中于全栈厂商,后来者还有什么机会?
吴恩达提出的观点或许是这个问题的最好回答:
垂直领域AI服务于特定行业的能力,其增长速度将远超对AGI的期待。
在训练算力受限、推理算力有替代方案的情况下,放弃高精尖领域,聚焦高频刚需场景反而容易在体验层面上实现反超。
就像黄仁勋在博客结尾所说,人类仍处于AI基础设施建设的早期阶段,大语言模型和智能体都不会是AI发展的最终形态,大量机遇尚未发掘。
对于全球绝大部分开发者而言,复制全栈巨头的路径绝非明智之举,只会像OpenClaw一样营造出大量伪需求。
真正的机会,是在约束条件下探索更贴合本土场景的智能系统。
当应用层开始反向定义技术栈,AI能力溢出就变成了战略机会。
国产模型在智能体时代已经与国际顶尖模型缩小了参数上的差距,后续发展的关键就在于产品如何跨越“能用”和“好用”之间的临界点。
可以确信的是,免费奶茶营销留不住的用户,缺乏场景耦合的代理工具同样留不住。
只有找到普通用户也愿意为之付费的价值点,应用层才能真正拉动下层技术投入,形成正向循环。
智能的物理基座已经开始浇筑,应用层的真实价值将决定基座能承载多大的经济规模。







