ITBear旗下自媒体矩阵:

火山引擎:以Token为尺,丈量智能未来,构建独特经济生态

   时间:2025-12-19 17:58:16 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在近期举办的FORCE原动力大会上,火山引擎总裁谭待的演讲引发了行业广泛关注。据统计,在半小时的演讲中,他18次提及“Token”,而“云”仅被提到7次。这一细节折射出当前AI领域的发展重心正在发生微妙转变。

火山引擎公布的最新数据显示,其豆包大模型日均Token调用量已突破50万亿,较发布初期实现417倍增长,较去年同期增长超10倍。这一数据不仅使其稳居中国第一,更跃居全球第三,与谷歌10月公布的月均43万亿Token调用量(日均约1.43万亿)形成鲜明对比。在公有云大模型服务领域,火山引擎的市场份额从2024年的46.4%提升至49.2%,相当于中国每产生两个Token就有一个来自其平台。

技术迭代方面,豆包大模型1.8版本正式发布,延续All-in-One技术路线,将文字、代码、Agent、音频、图视频等能力整合于统一基础模型。同步推出的Seedance 1.5 pro视频生成模型,在音画同步和方言处理领域达到世界领先水平。这些升级直接回应了当前Token消耗的结构性变化——推理需求取代训练成为主要驱动力,多模态与Agent应用占据消耗主导地位。

火山引擎智能算法负责人吴迪指出,Token作为AI处理信息的基本单元,其数量增长与智能水平呈现正相关。尽管存在"一篇文章与一段代码消耗相似Token"的争议,但实际场景中,关键决策的得出往往需要海量前置计算。他预测,到2030年国内市场Token消耗量将达现有百倍以上,企业智能化程度的核心指标将从GPU数量转向Token消耗总量,因其能同时反映模型能力、使用频率和真实需求。

面对这种趋势,火山引擎重构了云计算基础设施。传统IaaS、PaaS、SaaS分层架构被以模型为中心的AI云原生架构取代。新推出的"推理代工"服务允许企业托管训练好的模型,按实际Token消耗付费;Agent开发套件(ADK)采用多会话共享模式,突破行业惯例的独立运行时设计;智能端点支持模型路由,可自动分流至豆包、DeepSeek等多模型后端;方舟平台升级后,客户能在自有场景中进行RL强化学习微调。

这种技术路线与谷歌的全栈自研模式形成呼应。字节跳动将内部需求直接贯通至模型训练层,火山引擎团队与模型部门Seed保持紧密协作,市场需求反馈直接影响研发方向。例如,豆包大一统模型的设计源于客户对版本过多的反馈,128k上下文等炫技功能因实际需求不足被舍弃,Seedance增加的Draft样片功能则提升了用户体验。这种"需求驱动研发"的模式,在火山引擎服务的超100万家企业中得到验证,其中超百家企业累计Token使用量突破万亿。

定价模式创新方面,火山引擎推出"AI节省计划",客户仅需为实际使用的Token付费。这种变革预示着云计算市场正在经历根本性转变——从算力租赁转向模型调用,从基础设施提供转向智能服务整合。正如谭待所言,当Agent普及后,Token将从底层原材料升级为智能单元,通过云平台和中间件的组装,形成可互通的工作流,最终以API或完整Agent形式创造更高价值。这种转变或将催生规模达10万亿的Agent市场,重新定义智能经济的边界。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version