ITBear旗下自媒体矩阵:

高通携AI200与AI250芯片入局数据中心,剑指英伟达推理市场新赛道

   时间:2025-10-29 01:11:54 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

全球半导体领域迎来新动态:高通公司正式宣布进军数据中心市场,推出两款专为人工智能推理设计的加速芯片——AI200与AI250。这一举动被视为对当前市场霸主英伟达的直接挑战,尤其在AI推理领域可能引发新一轮竞争格局重塑。沙特阿拉伯人工智能初创企业Humain成为首批客户,计划从2026年起部署价值200兆瓦的芯片设备。

根据技术披露,这两款芯片采用创新内存架构,整合了Oryon中央处理器、Hexagon神经网络加速单元、LPDDR内存模块及液体冷却系统,支持通过PCIe和以太网实现机架级扩展。高通技术规划负责人Durga Malladi强调,新方案在成本效益和系统灵活性方面具有显著优势,其软件栈可兼容主流机器学习框架与生成式AI工具,并支持模型分解等优化技术。

市场研究机构IoT Analytics数据显示,当前数据中心AI加速市场被英伟达占据92%份额,其GPU产品凭借训练性能优势主导行业。但分析人士指出,随着计算需求向推理场景迁移,市场格局可能出现松动。Moor Insights首席分析师Patrick Moorhead在社交平台分析称,高通若能兑现性能承诺,或将从移动端效率优势延伸至数据中心领域,成为机架级能效比的标杆企业。

资本市场对高通战略调整反应强烈。消息公布当日,其股价单日涨幅突破20%,创下2019年以来最大单日涨幅。Futurum Group首席执行官Daniel Newman评估认为,此举可能使高通在未来三年内获得超百亿美元收入,若关键市场执行得当,增长空间将进一步扩大。该机构分析师Matt Kimball特别指出,企业级市场将成为长期增长引擎,机架级系统终将渗透至各类商业场景。

从时间线来看,AI200芯片将于2026年投入商用,AI250则定档2027年。MarketsandMarkets预测,全球AI数据中心市场规模将从2025年的2360亿美元激增至2030年的9330亿美元。这种指数级增长态势,为后来者提供了战略窗口期。高通软件生态负责人透露,其开放系统架构已吸引多家开发企业参与测试,模型部署效率较传统方案提升显著。

技术细节显示,AI200/250系列通过硬件加速与软件优化的协同设计,在推理延迟、吞吐量等核心指标上形成差异化竞争力。液冷技术的集成不仅提升能效,更解决了高密度部署的散热难题。沙特Humain公司表示,选择高通方案正是看中其从边缘计算到数据中心的全场景覆盖能力,这与其构建国家级AI基础设施的战略需求高度契合。

行业观察家注意到,高通此次战略转型并非孤立事件。随着AI应用从训练向推理场景扩散,市场对专用芯片的需求日益凸显。传统GPU巨头虽占据先发优势,但专用推理芯片在特定场景下的性价比优势正在显现。这场竞赛不仅关乎技术路线选择,更考验企业把握需求变迁的商业洞察力。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version