高通今日正式进军AI数据中心市场,推出两款全新AI芯片——AI200与AI250,并同步发布配套的机架级解决方案。这一举动直接冲击了英伟达与AMD长期主导的AI芯片领域,消息公布后,高通股价应声上涨超过11%,创下2024年7月以来的新高。
此次战略转型背后,是高通核心业务面临的严峻挑战。随着智能手机市场“黄金时代”的结束,消费者换机频率显著下降,而苹果公司逐步淘汰高通调制解调器、转用自研芯片的决策,更让高通传统业务承压。尽管高通已尝试向汽车、混合现实设备及个人电脑等领域拓展,但这些业务规模仍不足以支撑整体增长。为避免重蹈英特尔覆辙,高通将AI芯片视为关键突破口。
高通对AI市场“后半程”的判断成为其战略的核心依据。随着大规模AI部署的推进,推理(Inference)工作负载将成为数据中心支出与竞争的焦点。相较于训练(Training)对原始算力的极致追求,推理更注重吞吐量、延迟、能效比及总体拥有成本(TCO)。此次发布的AI200与AI250,正是针对这一需求量身打造。
AI200系列的最大技术亮点在于其内存设计。该加速器卡搭载了高达768GB的LPDDR内存,与主流AI加速器普遍采用的高带宽内存(HBM)形成鲜明对比。高通利用其在移动领域积累的供应链与集成经验,通过LPDDR技术显著降低了内存成本,同时提升了容量密度。AI200作为机架级解决方案,支持高密度部署,单个机架功耗控制在160千瓦左右,并采用直接液冷技术确保热效率。高通计划于2026年实现AI200的商用。
AI250则引入了基于近内存计算(Near-Memory Computing)的创新架构,旨在实现“代际性”的效率与性能提升。通过将计算单元靠近内存,AI250的有效内存带宽较AI200提升十倍以上,同时功耗显著降低。这一架构变革将进一步巩固高通在AI推理能效比领域的领先地位,尤其适用于对实时性要求极高的生成式AI与多模态应用。AI250预计于2027年进入市场。
高通在数据中心领域并非新手。2021年,其第一代AI数据中心芯片AI 100曾接近出售给meta Platforms,但最终因软件生态系统不匹配而告吹。此次AI200与AI250的推出,高通显然吸取了教训,并在软件兼容性方面取得进展。为增强技术基础,高通已于今年6月宣布以24亿美元收购Alphawaxe Semi。
高通的入局将AI芯片竞争格局推向多元化,但其挑战依然严峻。英伟达凭借强大的GPU性能与成熟的CUDA生态,目前仍主导训练市场及大部分推理市场。高通新产品从发布到大规模商用需一至两年时间(AI200预计2026年,AI250预计2027年),这也为竞争对手留下了调整空间。









