高通公司近日正式发布针对数据中心领域的全新AI推理加速方案,该方案基于Qualcomm AI200与AI250芯片组构建,涵盖加速卡及机架级系统产品。通过优化总体拥有成本(TCO),该系列解决方案可为高算力数据中心提供机架级生成式AI推理性能,同时配备大容量内存支持复杂模型运行。

作为机架级AI推理专用产品,Qualcomm AI200加速卡单卡配置768GB LPDDR内存,在保持低TCO优势的同时,为大型语言模型(LLM)和多模态模型(LMM)提供优化的推理性能。其内存架构设计兼顾高扩展性与成本效益,支持数据中心灵活部署不同规模的AI工作负载。
更值得关注的是Qualcomm AI250机架系统,该产品首次采用近存计算(Near-Memory Computing)内存架构。通过将计算单元与存储单元深度整合,系统有效内存带宽实现超10倍提升,同时功耗显著降低。这种创新架构支持解耦式AI推理模式,可动态分配硬件资源,在满足性能需求的同时控制运营成本。
两款产品均配备先进的散热与扩展设计:支持直接液冷技术提升能效比,提供PCIe纵向扩展和以太网横向扩展能力,并内置机密计算模块保障数据安全。整机架设计功耗控制在160千瓦,兼顾高性能与节能需求。
根据技术路线图,Qualcomm AI200将于2026年进入商用阶段,AI250则计划在2027年推向市场。这两款产品的推出,预计将推动数据中心AI推理领域实现技术架构与商业模式的双重突破。






