高通公司今日正式推出面向数据中心的新一代AI推理优化方案,包含基于AI200和AI250芯片的加速卡及机架系统。该系列解决方案专为大规模语言模型和多模态模型(LLM/LMM)的推理任务设计,在性能、能效和成本方面实现突破性优化。
AI200机架解决方案采用768GB LPDDR内存配置,通过提升内存容量和降低单位成本,为AI推理工作负载提供更具竞争力的总拥有成本(TCO)。该方案支持PCIe和以太网扩展接口,并集成机密计算技术,确保AI任务在160kW高功耗机架中的安全运行。直接液冷技术的引入使散热效率显著提升,满足超大规模数据中心对能效的严苛要求。
AI250解决方案则通过近内存计算架构实现技术革新,内存带宽提升超过10倍的同时降低功耗。这种创新设计使AI推理任务在处理复杂模型时获得更高效率,特别适用于对实时性要求严苛的应用场景。两款产品均配备高通自主研发的超大规模AI软件栈,该软件体系覆盖从应用层到系统层的全链条优化。
高通AI软件栈支持主流机器学习框架和生成式AI工具链,内置的LLM/LMM推理优化技术包含解耦合服务等创新功能。开发者可通过Efficient Transformers库和AI推理套件,实现模型向高通平台的无缝迁移,并支持Hugging Face模型库的一键部署功能。软件体系还提供完整的AI运营工具链,涵盖应用开发、代理服务、API接口及运维服务等模块。
资本市场对高通此次技术突破作出积极回应,公司股价在消息发布后出现显著上涨,单日涨幅达20%。据技术路线图显示,AI200加速卡将于2026年进入商用阶段,AI250解决方案则计划在2027年推向市场。这两款产品的推出将进一步巩固高通在数据中心AI加速领域的市场地位。











