ITBear旗下自媒体矩阵:

谷歌与英伟达携手,RTX PRO 6000助力云端,构建AI算力至物理AI新生态

   时间:2025-10-21 11:21:19 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

谷歌云平台近日宣布,其全新推出的Google Cloud G4虚拟机已正式面向全球市场开放商用。这款产品搭载了英伟达最新研发的RTX PRO 6000 Blackwell服务器级GPU,同时采用AMD EPYC Turin服务器CPU,旨在为工业和企业级用户提供从AI应用开发到部署的一站式解决方案,覆盖视觉计算、数字孪生等复杂物理AI工作场景。

据技术文档显示,G4虚拟机在性能上实现突破性提升,其吞吐量较前代G2平台提升最高达9倍。该产品特别优化了多模态AI推理、高保真设计可视化以及基于NVIDIA Omniverse的机器人仿真等物理AI工作负载。谷歌工程师在博文中强调,新平台显著提升了生成式AI模型和代理式AI智能体的运行效率,同时将大型语言模型的训练、微调和推理时间大幅压缩。

英伟达方面透露,RTX PRO 6000 Blackwell GPU采用双引擎架构设计:第五代Tensor Core通过支持FP4等新数据格式,在降低内存占用的同时提升能效比;第四代RT Core则将实时光线追踪性能提升至前代的两倍以上,可实现电影级图形渲染和逼真模拟。这款GPU被定位为数字孪生、仿真和视觉计算领域的终极数据中心解决方案。

作为Google Cloud AI超级计算机架构的重要组成部分,G4虚拟机原生集成了Google Kubernetes Engine和Vertex AI等服务,简化了容器化部署流程和物理AI工作负载的机器学习操作。该平台还支持通过Dataproc加速Apache Spark和Hadoop上的大规模数据分析,展现出强大的灵活性。

在生态合作层面,英伟达将Nvidia Omniverse和Isaac Sim两大数字孪生与机器人仿真平台以虚拟机镜像形式引入Google Cloud Marketplace。这些工具为制造业、汽车和物流行业提供了突破性AI技术驱动的物理化工作负载支持,帮助企业快速构建数字孪生系统和工业仿真环境。

市场定位方面,G4虚拟机被视为谷歌云端AI产品金字塔的"普惠层"。与承担大模型训练任务的B200/GB200算力集群形成互补,G4专注于服务更广泛的企业级AI推理工作负载,特别是低延迟推理、数字孪生和工业仿真等场景。这种分层策略使谷歌能够以更高性价比承接当前企业的AI上云需求。

RTX PRO 6000服务器版GPU的独特优势在于同时具备Tensor Core(含FP4支持)和RT Core,完美契合企业级推理与实时渲染的复合需求。该平台可稳定承载300亿至1000亿参数级别的AI推理和微调任务。谷歌同步上架的Omniverse/Isaac Sim生态工具,进一步加速了工业数字化和机器人技术的落地应用。

对于中小企业而言,基于RTX PRO 6000的G4平台提供了独特价值。相比需要HBM存储和NVLink互联的万卡级B200集群,G4以更低的预算门槛满足了服务端推理、中等规模AI微调以及数字孪生仿真的并行计算需求。这种特性使其成为工业数字孪生、视觉特效制作和机器人仿真测试等场景的首选云端解决方案。

在资本市场,英伟达凭借其GPU处理器和CUDA软件生态的领先优势,继续巩固全球AI算力市场的统治地位。RTX PRO 6000入驻谷歌云平台,被视为双方新的业绩增长点。近期英伟达还与OpenAI达成千亿美元级合作,为后者提供10吉瓦容量的AI服务器集群,展现出其在AI基础设施领域的持续扩张能力。

华尔街顶级投行普遍看好英伟达的发展前景。Cantor Fitzgerald、汇丰和摩根士丹利等机构认为,该公司将是万亿美元级AI支出浪潮的核心受益者。近期分析师不断上调英伟达目标价,汇丰更是将目标股价从200美元大幅调升至320美元,预示其市值有望在一年内突破5万亿美元大关。

作为全球AI算力产业链的"总龙头",英伟达的强劲表现带动了整个科技板块的上涨。在英伟达、meta、谷歌等巨头的引领下,AI投资热潮正席卷全球股市。标普500指数和MSCI全球指数近期屡创新高,反映出市场对AI技术发展的高度信心。

据摩根士丹利等机构预测,以AI算力硬件为核心的全球基础设施投资浪潮才刚刚开始。在"AI算力需求风暴"的推动下,本轮投资规模可能达到2万至3万亿美元。近期DRAM和NAND存储产品价格飙升、OpenAI达成万亿美元级AI基础设施交易,以及台积电上调营收增长预期等事件,进一步强化了AI算力基础设施板块的长期增长逻辑。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version