高盛最新研究报告指出,人工智能行业正经历从成本驱动向利润驱动的关键转型。随着智能体AI(Agentic AI)的广泛应用,全球token消耗量预计将呈现爆发式增长,而底层算力成本的持续下降将为行业开辟显著利润空间。报告预测,到2030年消费端与企业端AI代理将共同推动全球token消耗量较2026年增长24倍,达到每月120千万亿个;若按企业端2040年峰值采用率计算,这一数字可能进一步扩大至55倍。
成本与价格的剪刀差效应成为利润扩张的核心动力。高盛分析显示,主流大模型token定价在经历前期年均40%的降幅后,目前已趋于稳定甚至出现小幅回升;与此同时,英伟达、AMD、谷歌TPU及Trainium等芯片驱动的每token算力成本仍以每年60%-70%的速度持续下降。这种成本下降速度快于价格降幅的趋势,使得超大规模云厂商和大模型提供商的毛利率拐点可能在未来3至12个月内显现,为当前高企的AI基础设施投资提供可持续的经济支撑。
智能体AI的经济模型正在形成自我强化的飞轮效应。报告指出,更低的每token算力成本将催生功能更复杂、应用场景更丰富的AI代理,这些代理通过更长的上下文处理、更多循环验证和持续监控消耗更多token,进而提升AI基础设施的利用率。这种正向循环与市场普遍担忧的"AI使用将带来不可持续成本负担"形成鲜明对比,高盛认为这种飞轮效应将推动行业进入利润扩张的新阶段。
消费端AI代理的普及将带来token消耗量的质变。高盛将消费端代理分为"按需型"(如浏览器端任务代理)和"常驻型"(如后台运行的邮件监控、日程管理助手)两类,预计到2030年前者将推动全球token消耗量提升12倍,每月新增约60千万亿个。模拟数据显示,普通聊天机器人每次会话消耗约1,000个token,而常驻型代理每日消耗量可超过100,000个。随着代理从被动响应转向主动运行,传统搜索引擎的查询量份额预计将从2025年的68%降至2030年的36%,LLM原生应用的份额则将从12%升至31%。
企业端AI代理将成为最大的token消耗主体。高盛预测,到2030年企业端工作负载将推动全球token消耗量增长24倍,2040年峰值采用时进一步增至55倍,占全球总使用量的70%以上。企业代理的token强度显著高于消费端,源于其需要执行更复杂的多模态操作,包括语音、图像、文档、屏幕活动等输入的处理。量化测算显示,编程代理每日消耗约700万个token,数据录入代理消耗约2,500万个,而呼叫中心代理若依赖实时语音处理,成本可能高达92美元/天。
企业端代理的采用速度将受四大变量影响:token消耗量、API成本、模态组合和实施复杂度。高盛认为,以文本为主、工具生态成熟的工作流将率先规模化,而语音为主或深度集成后台系统的工作流进展可能较慢。从采用曲线看,企业端智能体AI预计将遵循S型曲线,峰值采用率约为35%-40%的知识工作者,达峰时间约15年,快于历史技术扩散的中位数29年。
利润改善为AI资本开支的可持续性提供关键支撑。高盛指出,谷歌和meta已上调2026财年资本开支预期,亚马逊管理层重申维持高资本开支策略。在具体投资标的方面,报告看好亚马逊(AWS收入增速重新加速,拥有3,640亿美元收入积压订单)、谷歌(云业务一季度同比增长63%,积压订单近4,600亿美元)和meta(广告业务增速超越行业,AI算力提升用户参与度)。软件领域,更低的token成本使厂商更容易将代理嵌入现有产品,同时支持按成果或生产力定价的模式;IT服务公司则将受益于企业级工作流改造带来的集成、治理需求增长,Accenture被视为主要受益者。










