ITBear旗下自媒体矩阵:

AI推理时代算力竞争升级:国际国内芯片大厂竞逐全栈异构新赛道

   时间:2026-02-28 04:20:22 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在人工智能技术加速迭代的背景下,芯片产业正经历新一轮竞争格局重塑。meta与英伟达近期签署的多年期合作协议引发行业关注,根据协议内容,meta将采购数百万颗Blackwell和Rubin架构GPU构建AI数据中心,同时首次大规模部署英伟达Grace CPU作为独立服务器芯片。这一动作标志着英伟达在巩固GPU市场优势的同时,正加速推进CPU产品线的战略布局。无独有偶,AMD与meta签订的600亿美元协议中,基于Instinct GPU与第六代EPYC CPU的MI450加速卡,将成为meta下一代AI基础设施的核心组件。

市场动态显示,CPU在AI计算中的角色正发生根本性转变。自2025年底以来,英特尔至强、AMD霄龙等服务器CPU出现产能紧张,部分型号交货周期延长至6个月。行业分析师指出,随着生成式AI从训练阶段向训练推理并重转型,任务调度、工具调用等环节对CPU的依赖度显著提升。在预训练阶段,CPU承担着数据分片、索引构建等关键任务;在多模态推理场景中,CPU负责视频解码等预处理工作,有效缓解GPU算力压力。这种计算范式的转变,推动CPU利用率较三年前提升近40%,成为影响AI系统整体效能的关键因素。

国际芯片巨头纷纷调整技术路线图以应对变革。英伟达持续深化与Arm的合作关系,其Grace CPU采用定制Arm架构,与B300 GPU组成的GB300平台,使AI推理性能提升3倍。即将推出的Vera Rubin平台更整合了新一代Vera CPU与Rubin GPU,目标直指智能体时代的算力需求。英特尔在推进18A制程工艺的同时,于2026年初任命高通前高管Eric Demers主导GPU架构设计,试图构建x86 CPU、Xe GPU与NPU的协同体系。AMD则通过CDNA架构持续迭代,MI450加速卡采用2nm制程,在3D堆叠技术加持下,实现CPU与GPU的紧密耦合。

高通凭借骁龙平台的生态优势,在端侧异构计算领域占据先机。其最新一代处理器集成Kryo CPU、Adreno GPU与Hexagon NPU,通过系统级优化使AI算力分配效率提升25%。这种技术路线与云端异构形成互补,为消费电子、自动驾驶等领域提供完整解决方案。在CES 2026展会上,高通演示的边缘计算设备,可同时处理16路4K视频流分析,验证了其全栈异构技术的商业化价值。

国内芯片产业在自主可控框架下加速突破。海光信息通过x86兼容架构与HSL高速互联协议,实现CPU与GPU的协同优化,其深算系列GPGPU在金融风控场景中,推理延迟较进口产品降低18%。阿里平头哥基于RISC-V架构的玄铁CPU,与含光NPU、通用GPU组成训推一体方案,已在阿里云部分区域实现规模化部署。地平线征程6车载SoC集成18核ARM CPU与四核BPU,支持24路摄像头接入,成为高阶智驾领域的标杆产品。景嘉微通过定增募资加强GPGPU研发,其CH37系列边端AI芯片集成CPU、GPU、NPU等五类处理单元,提供64TOPS算力,在工业视觉领域形成差异化优势。

技术演进趋势显示,AI算力竞争已从单芯片性能比拼转向系统效率优化。全栈异构架构通过动态分配计算任务,可使数据中心整体能效提升30%以上。国际咨询机构预测,到2028年,采用异构计算的AI服务器占比将超过75%,形成万亿级市场规模。在这场变革中,具备CPU、GPU、NPU全栈研发能力的厂商将占据先机,而生态建设能力将成为决定市场竞争格局的关键因素。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version