ITBear旗下自媒体矩阵:

高通推出AI200与AI250数据中心AI加速卡:2026年起陆续商用,聚焦机架级推理

   时间:2025-10-29 05:06:11 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

高通技术公司正式推出两款专为数据中心设计的AI推理芯片——Qualcomm AI200与AI250,标志着其在AI硬件领域的战略布局迈入新阶段。这两款产品以加速卡和机架系统形式交付,聚焦大语言模型及多模态模型的推理场景优化,旨在满足数据中心对高算力、低延迟的需求。

Qualcomm AI200的亮点在于单张加速卡支持768GB LPDDR内存,采用机架级架构设计。通过扩大内存容量并优化成本结构,该方案试图在扩展性与灵活性之间找到平衡点。而AI250则引入了近存计算技术,官方数据显示其有效内存带宽提升超10倍,同时显著降低功耗,为高密度计算场景提供更高效的解决方案。

在散热与扩展能力方面,两款机架系统均支持直接液冷技术,并具备PCIe纵向扩展与以太网横向扩展功能。整机架功耗控制在160千瓦以内,同时集成机密计算功能,确保数据中心处理敏感工作负载时的安全性。这些设计使产品能够适应不同规模的数据中心部署需求。

高通技术公司高级副总裁马德嘉(Durga Malladi)在发布会上强调,两款产品重新定义了机架级AI推理的性能边界。其软件栈覆盖从应用层到系统层的完整技术体系,兼容主流机器学习框架和推理引擎。开发者可通过高通的高效Transformer库及Qualcomm AI Inference Suite快速接入模型,并支持Hugging Face模型的一键部署,大幅简化开发流程。

AI250的解耦式AI推理架构成为另一大技术突破。该架构通过分离计算与存储资源,提升硬件利用率,直击当前数据中心AI部署中的资源浪费痛点。这一设计理念与行业对高效能计算的追求高度契合,为数据中心运营方提供了更具成本效益的选择。

商用计划方面,Qualcomm AI200预计于2026年投入市场,AI250则定于2027年发布。高通透露,未来将按年度迭代节奏更新数据中心产品线,持续优化AI推理性能、能效比及总体拥有成本,以应对不断增长的市场需求。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version