ITBear旗下自媒体矩阵:

当AI进入推理竞速期,拆解联想集团的全线增长逻辑

   时间:2026-04-22 11:10:42 来源:格隆汇编辑:快讯 IP:北京 发表评论无障碍通道
 

文/罗茜

4月中下旬,AI产业的焦点发生转移:市场目光从单纯比拼训练集群规模,转向严格考核推理成本、系统效率和回报周期。

4月16日,阿斯麦(ASML)和台积电(TSMC)先后上调全年预期,TSMC还提高了资本开支。至此,今年AI基础设施的资本支出可能超过8000亿美元;其中,微软、meta、亚马逊和Alphabet全年资本支出超过6300亿美元。钱还在继续投,但买方和投资人关注的指标已经变了,重点落到吞吐、时延、能耗和单次推理成本上。

这个变化,首先体现在产业订单上。4月14日,meta把与博通(Broadcom)的定制AI芯片合作延长到2029年,首阶段承诺超过1GW算力,后续多代MTIA芯片明确面向推理。Broadcom除了提供定制芯片,也会提供以太网互连。对头部云厂商来说,采购逻辑正在从抢通用GPU产能,扩大到自研芯片、网络和整机系统的组合。

正如联想集团董事长兼CEO杨元庆所指出的,AI将从训练逐步转至推理。训练仍然重要,但推理已成为新增投入最密集的方向之一。

CPU因此重新回到市场讨论中心。

4月20日,投行Morgan Stanley在最新研报中判断,随着AI从内容生成转向自主执行,数据中心的计算瓶颈正向CPU和内存移动。该行预计,到2030年,agentic AI有望给一个规模已超过1000亿美元的数据中心CPU市场,新增325亿至600亿美元需求。GPU需求仍然强劲,但市场正在重新给CPU、内存和系统控制层定价。

4月9日,英特尔与Google扩大合作,也验证了这一趋势。Google将继续在推理和通用计算场景部署Xeon处理器,并与英特尔共同开发基础设施处理器IPU。英特尔的表述很直接:现代AI系统需要的是平衡系统,CPU和IPU负责支撑性能、效率与灵活性。这意味着,AI基础设施的价值分配,正在从单颗加速卡扩展到CPU、网络、存储、液冷和软件调度。

对联想集团而言,整机系统价值的提升,是比单一芯片行情更直接的利好。进入推理阶段,进入推理阶段后,客户采购更看重总拥有成本、落地速度、能效与数据安全。系统越复杂,整机厂和方案商的行业位置越稳固。

已经可以从财务数据上验证,AI业务成为了联想集团的重要增长引擎。2026年4月1日,联想集团宣布,新财年将是混合式AI战略集中兑现的一年。杨元庆指出,今年前三财季全部创下历史同期新高,营收同比提升670亿元,同比增长18%,调整后净利润超过100亿元,增速达28%。以此判断,公司全年营收势必刷新历史纪录,有望达到5600亿元。公司CFO郑孝明则进一步指出,两年后将实现净利率翻倍至5%的目标。

联想集团股价应声上涨。截至4月17日,联想集团股价重新站上11港元关口,周内逆势大涨逾12%,跑赢恒生指数约10.7个百分点。


TurboQuant横空出世

内存涨价仍是今年初最现实的压力之一。2月,集邦咨询(TrendForce)将一季度常规DRAM合约价涨幅预期从55%至60%上调至90%至95%。AI基础设施建设已吸收大量内存供给,智能手机、PC和游戏机出货因此面临压力,IDC预计2026年全球PC市场将下滑至少4.9%。

但从3月下旬开始,新的迹象出现了。

当时,Google Research发布TurboQuant。这是一种无需训练或微调的KV cache压缩算法,可将KV cache量化至3 bit,在公开测试中未见准确率损失,并将KV cache内存占用压缩至少6倍,在H100上实现最高8倍的注意力分数计算提速。这一技术瞬间撼动科技市场,三星电子、SK海力士、美光等内存股迅速下跌,市场担忧AI硬件需求将因效率提升而放缓。

但分析师们的结论并不悲观。他们认为,TurboQuant这类压缩技术,会加速AI采用,最终对内存需求形成正向催化,更低成本会把AI从高价实验拉向更大规模部署。TurboQuant影响的是推理阶段的KV cache,而不是训练本身,也不是总硬件需求被简单砍掉5/6,它本质上是提高单GPU产出、降低单次成本,并可能带来更长上下文、更大batch、更高查询量。TurboQuant并不是内存产业的末日场景,需求不会因此退化。

正如Morgan Stanley亚洲科技研究主管Shawn Kim所指出的,TurboQuant直击成本曲线,降低每token成本,这将推动更密集AI应用和更大上下文窗口,最终扩大整体硬件需求。

这意味着,谁能把更便宜的推理变成企业可部署、可运维、可计量回报的产品,谁就更可能受益。这,恰恰是联想集团成功卡位之处。

这种底层的重大技术进步具有极强的验证意味,它完美印证了联想集团此前的长期战略眼光。联想高层一直坚定不移地押注混合式AI战略,他们坚信:计算资源终将从昂贵的云端数据中心,大举走向边缘计算节点和海量的个人终端设备,推理阶段的市场规模将远大于早期的训练阶段。

目前,联想集团的业务架构已经完整覆盖了整个产业链,底层算法效率的提升犹如一剂强心针,让联想的前期投资迎来了丰厚的收获期。


推理降本的全线增长

通过多年来极其成熟的全球供应链管理,联想集团在存储暴涨的周期中,仍能维持较高的运营利润率。推理降本,成为联想集团对冲内存涨价的新的抓手。

联想集团在GTC 2026推出的Hybrid AI Advantage(混合式AI优势集)方案,能将本地部署的投资回报率(ROI)压缩到六个月以内,单token成本最高较同类公有云基础设施即服务(IaaS)低8倍,其ThinkSystem和ThinkEdge新方案均直接切入推理场景。

基础设施方案业务集团(ISG)是联想集团最直接的受益板块。财报显示,ISG第三财季收入52亿美元,同比增长31%;AI基础设施收入增长59%;Neptune液冷收入增长300%;AI服务器业务管线达到155亿美元。公司高管多次承诺,2025/26财年第四财季将扭亏为盈,并实现持续性盈利。这么说的底气在于,推理需求扩大后,液冷、高密度部署和企业级交付,开始带来新的利润来源。

更大的亮点来自一笔近两年的跨国并购落地。北京时间4月10日,联想集团宣布完成对Infinidat的收购。这笔交易将扩展联想的企业级存储产品组合,增强其交付高韧性、智能化、面向AI的数据基础设施能力。Infinidat是高端存储的"明珠",长期服务金融、医疗、电信和公共部门等高要求行业,近四分之一客户来自世界顶级50强。

推理时代的存储价值,过去容易被低估。训练侧投入强调算力峰值,推理侧更看数据读写、持续稳定性、恢复能力和合规。客户把AI从试验推向生产,预算会自然流向服务器、存储、网络、液冷和运维。联想官方在并购公告中提到,Infinidat的能力将与联想的全球覆盖和完整基础设施组合结合,支持数据密集型应用、分析和下一代企业工作负载。这正好补上了联想在高端存储的一块短板,也让ISG在推理时代的整机方案更完整。

方案服务业务集团(SSG)对应的是另一段增长。据第三财季数据,SSG收入27亿美元,同比增长18%,运营利润率22.5%;托管服务收入增长22%,项目与解决方案收入增长16%,两者合计收入占比已达59.9%。财报还提到,制造、零售、体育、交通和智慧城市等行业的AI方案增长加快。推理工作负载一旦大规模上线,SSG的服务收入会比硬件更稳定,也更接近利润中心。

智能设备业务集团(IDG)一直是联想最稳固的核心基本盘,这里的逻辑更像一条慢慢清晰的终端主线:在此之前,端侧大模型对设备的物理内存要求极高,这导致早期的AI PC制造成本和售价都居高不下。随着推理成本下降,市面上普通的16GB内存轻薄办公电脑,也有可能胜任复杂的本地推理任务。

此次,联想集团押注的不是又一轮传统PC换机,而是一种"给AI用的电脑",这是一种全新的品类。3月31日,联想集团正式推出两款"龙虾终端":YOGA AI Mini和 Think AI Tiny,搭载AI原生操作系统DingOS,支持OpenClaw一键部署,内置安全防护机制。其中,Yoga AI Mini聚焦个人消费市场,Think AI Tiny切入企业办公场景,二者联袂直击当下 OpenClaw "龙虾热潮"背后的行业痛点,精准覆盖了个人与企业边缘计算的增量市场,进一步打开了IDG的总潜在市场规模,也有望成为联想集团利润增长的第二曲线。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version