在数据中心人工智能芯片领域,英伟达与AMD长期占据主导地位,但高通正以积极姿态切入这一市场。2025年10月,高通宣布推出面向数据中心的AI推理芯片Qualcomm AI200与A250,同步推出基于这两款芯片的加速卡及机架级解决方案,标志着其AI战略向数据中心场景的深度延伸。
沙特AI企业Humain近期成为高通数据中心AI芯片的首个大规模部署案例。当地时间2月24日,Humain首席执行官Tareq Amin在LinkedIn平台宣布,高通全栈式AI机架已运抵其数据中心,首批搭载AI100芯片的机架正在安装调试中。该部署计划分阶段推进,首期将部署1024张AI加速器,成为高通全球范围内规模最大的AI加速器部署项目之一。Adobe作为Humain数据中心的首个客户,将率先应用这一基础设施开展业务。
AI100芯片并非高通最新产品,其于2019年发布,采用7纳米制程工艺,AI算力达100TOPs,是同期骁龙855移动平台的50倍。该芯片支持TensorFlow等主流AI框架,并配备完整软件系统,但受限于当时的技术条件,其内存配置较为保守——Ultra版本仅配备128GB内存,单颗芯片最多可运行320亿参数的大模型。从当前视角看,这款芯片的硬件规格已显落后,尤其在内存容量与算力密度方面落后于新一代产品。
Humain选择AI100芯片的决策引发行业关注。分析认为,成本优势与供应链现实是主要考量因素:一方面,AI100作为6年前发布的产品,价格已大幅下降;另一方面,当前市场热门AI芯片被OpenAI、甲骨文等云服务巨头大量采购,导致供应紧张,Humain作为新兴企业难以以合理价格获取足够货源。Adobe作为首个客户的应用场景集中在图像填充与生成等基础任务,AI100的算力与内存配置已能满足需求,无需追求更高性能的芯片。
高通与Humain的合作已进入战略层面。2025年3月13日,双方签署谅解备忘录,宣布将联合开发下一代人工智能数据中心、基础设施及云到边缘服务,以应对全球AI需求的快速增长。根据规划,高通最新发布的AI200芯片将于2026年上市,A250则需等到2027年。在此过渡期内,AI100将成为Humain构建AI基础设施的核心组件,为其客户提供稳定的技术支持。











