ITBear旗下自媒体矩阵:

蚂蚁数科章鹏:企业级AI下半场,Token效能成衡量价值核心指标

   时间:2026-03-27 00:17:23 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

随着以OpenClaw为代表的自主执行型智能体热度攀升,人工智能应用正加速从“对话交互”向“任务执行”领域拓展。这一趋势为企业带来创新机遇的同时,也暴露出算力资源浪费、安全合规性等现实问题。如何实现智能体在产业场景中的规模化、可持续应用,已成为行业关注的焦点。

在中关村论坛未来产业创新发展论坛上,蚂蚁数科大模型技术创新部负责人章鹏指出,OpenClaw的爆发预示着企业级AI发展范式将发生根本性转变。产业应用正从单纯追求模型参数规模,转向更注重单位Token产出效率的竞争阶段。这种转变要求企业重新评估AI技术落地路径,寻找算力投入与业务价值的平衡点。

当前智能体在产业落地过程中面临显著挑战。由于缺乏对行业特定规则和业务流程的深度适配,自主执行型智能体在处理复杂任务时普遍存在工具过度调用问题。数据显示,在高频交互场景中,部分智能体的Token消耗成本可达传统集成式方案的数十倍,这种低效模式严重制约了其商业化推广进程。

章鹏强调,产业智能化进入深水区后,企业需要根据具体场景需求构建差异化AI解决方案。以金融行业为例,该领域每天需要处理数以亿计的高频、低时延任务,包括意图识别、信息抽取、实时检索等。传统大模型虽然推理能力强,但在这些场景中存在成本过高、响应延迟等问题,难以满足业务需求。

针对行业痛点,蚂蚁数科在论坛期间发布了轻量化金融专用模型Ling-DT-Fin-Mini-2.5。该模型采用混合线性注意力架构,专门优化了金融领域高并发场景的处理能力。测试数据显示,其推理速度较主流通用模型提升100%,硬件成本显著降低,在保持专业精度的同时实现了规模化部署的经济性。

行业实践表明,大小模型协同正在成为主流解决方案。大参数模型凭借强大的复杂推理能力,适合处理需要深度分析的任务;小参数模型则凭借低延迟、高性价比的优势,成为高频短任务的首选。这种分层架构既能保证关键业务的专业性,又能有效控制整体运营成本。

近期OpenAI推出的GPT-5.4 mini与nano系列模型,验证了这一技术路线的市场价值。这些轻量化模型专注于执行层任务,通过降低延迟和成本,为大模型生态提供了重要的补充。这种发展趋势反映出,产业界正在形成更理性的技术评估体系,不再盲目追求模型规模,而是更加注重实际业务效果。

据章鹏透露,蚂蚁数科将持续完善企业级AGI技术体系,计划推出百灵企业版Ling DT大模型及其行业定制版本。这些解决方案将聚焦复杂业务场景的智能化需求,通过优化模型架构和训练方法,进一步提升Token利用效率,推动智能体技术在更多产业领域的深度应用。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version