英伟达与meta近日宣布达成一项具有里程碑意义的战略合作伙伴关系,双方将在本地部署、云计算及人工智能基础设施领域展开为期数年的深度合作。此次合作将推动英伟达Grace™ CPU、Blackwell与Rubin架构GPU以及Spectrum-X™以太网交换机的规模化应用,为meta构建全球领先的AI计算平台提供核心支撑。
根据协议,meta将建设超大规模数据中心,重点优化训练与推理场景下的计算效率。英伟达创始人黄仁勋强调,通过软硬件协同设计,meta研究人员将获得完整的英伟达平台支持,从而加速下一代AI模型的开发进程。meta创始人扎克伯格则表示,基于英伟达Vera Rubin平台构建的集群,将助力实现"为全球用户提供个人超级智能"的愿景。
在硬件部署层面,meta计划在数据中心生产环境中大规模采用基于Arm架构的英伟达Grace CPU。这项合作标志着Grace系列处理器首次实现规模化商用,双方通过共同优化CPU生态系统库及软件架构,持续提升每瓦性能表现。预计到2027年,NVIDIA Vera CPU的部署将进一步扩展meta的节能型AI计算版图,并推动Arm软件生态系统的完善。
网络架构方面,meta已全面引入英伟达Spectrum-X以太网平台,构建支持AI规模的网络基础设施。该平台通过优化数据传输路径,在确保低延迟性能的同时,显著提升资源利用率及能源效率。双方正合作开发基于GB300的系统架构,通过统一本地数据中心与云端部署的框架,简化运维流程并增强系统扩展性。
在隐私计算领域,meta已将英伟达机密计算技术应用于WhatsApp私密处理场景,确保用户数据在AI功能运行过程中的完整性与保密性。双方工程团队正将该技术扩展至meta全产品矩阵,重点开发支持隐私增强型AI的新兴应用场景。这种技术融合既满足了数据安全需求,又为个性化推荐等AI服务提供了技术保障。
针对AI模型开发,英伟达与meta组建联合工程团队,共同优化核心工作负载中的尖端模型架构。通过整合英伟达全栈平台与meta的规模化生产环境,双方致力于提升AI功能的执行效率,为全球数十亿用户带来更优质的交互体验。这种深度协作模式正在重塑AI基础设施的建设标准,为行业树立新的技术标杆。











