ITBear旗下自媒体矩阵:

高通推出AI200与A250数据中心芯片,以创新架构引领生成式AI推理新变革

   时间:2025-10-28 15:10:21 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

高通公司正式推出面向数据中心领域的全新AI推理芯片——Qualcomm AI200与AI250,同步发布基于这两款芯片的加速卡及机架级解决方案。凭借在神经网络处理单元(NPU)技术领域的深厚积累,高通宣称其新方案可实现机架级性能与内存容量的双重突破,为生成式AI推理提供高性价比解决方案,标志着跨行业AI部署进入可扩展、高效能的新阶段。

消息公布当日,高通股价在美股交易中一度飙升近22%,最终以11.09%的涨幅收盘。市场对高通在数据中心AI领域布局的积极反应,凸显了行业对其技术实力的认可。

Qualcomm AI200定位为专用机架级AI推理平台,专为大型语言模型(LLM)及多模态模型(LMM)设计。该方案支持单卡768GB LPDDR内存,通过优化总拥有成本(TCO)与性能平衡,为AI推理提供更强的扩展性与灵活性。其低内存成本特性,尤其适合需要大规模部署的AI应用场景。

Qualcomm AI250则首次引入近内存计算架构,通过提升超10倍的有效内存带宽并降低功耗,实现AI推理效率的跨越式提升。该方案支持分解式AI推理,可高效利用硬件资源,同时满足客户对性能与成本的双重需求。高通技术团队强调,AI250的创新设计将重新定义AI推理的工作负载处理方式。

两款机架解决方案均采用直接液体冷却技术提升热效率,支持PCIe纵向扩展与以太网横向扩展,并集成机密计算功能以确保AI工作负载的安全性。整机架功耗控制在160kW,兼顾性能与能效平衡。

高通技术公司高级副总裁Durga Malladi表示,AI200与AI250将重新定义机架级AI推理的可能性。其软件栈覆盖从应用层到系统软件层的全链路优化,支持主流机器学习框架、推理引擎及生成式AI框架。开发者可通过Efficient Transformers Library与AI推理套件,实现Hugging Face模型的一键部署,大幅降低AI模型集成与管理门槛。

高通承诺,其超大规模级AI软件栈将提供即用型AI应用程序、代理工具及全面API服务,助力AI技术快速落地。目前,关于两款芯片的详细技术资料页面尚未上线,但高通已明确AI200与AI250将分别于2026年与2027年投入商用。

此次发布并非高通在数据中心领域的首次布局。今年5月,高通与沙特AI公司HUMAIN签署谅解备忘录,合作开发下一代AI数据中心及云到边缘服务,涵盖高通最先进的数据中心CPU与AI解决方案。7月财报会议上,高通CEO Cristiano Amon进一步透露,公司正在开发通用数据中心CPU及推理集群主机,并已与一家超大规模企业展开深入合作谈判,预计2028财年将实现数据中心市场收入突破。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version