随着以OpenClaw为代表的自主执行智能体热度攀升,人工智能应用正从侧重“对话交互”加速转向“任务执行”领域。这一趋势在为企业带来发展机遇的同时,也引发了算力资源浪费、安全合规等诸多挑战。如何推动智能体实现规模化、可持续的产业落地,成为当前产业界聚焦的关键问题。
在中关村论坛未来产业创新发展论坛上,蚂蚁数科大模型技术创新部总经理章鹏发表演讲指出,OpenClaw的兴起将引发企业级AI范式的变革,推动大模型在产业场景的应用从“参数规模竞争”转向“Token效能竞争”。他强调,提升单位Token的效能,将成为大模型产业落地下半场的核心目标。
当前,自主执行型智能体虽因市场需求快速普及,但在实际产业环境中落地仍面临显著障碍。由于缺乏对行业规则和业务流程的深度理解,智能体在执行复杂任务时频繁调用工具,导致Token消耗远超有效产出。以高频调用场景为例,OpenClaw的Token消耗成本可达集成式Agent的数十倍甚至百倍,这种高投入低产出的模式严重制约了其在产业中的规模化应用。
章鹏认为,企业应结合实际场景需求,采用大小模型协同的AI解决方案,以降低算力成本并提升业务价值。以金融领域为例,该行业每天需处理大量高频低时延任务,如快速识别意图、提取关键信息、检索排序等。传统大模型虽具备强大推理能力,但在这些场景中存在成本高、响应慢等问题,造成资源浪费。产业真正需要的是在确保专业、严谨与合规的前提下,实现高性价比与快速响应的AI方案。
他进一步解释,大参数模型在复杂推理和深度分析方面表现优异,而小参数模型则更适合高频小任务场景,具有更低的延迟和更高的性价比。因此,大小模型结合的方案是解决真实场景问题的更高效路径。
论坛期间,蚂蚁数科发布了轻量级金融专用模型Ling-DT-Fin-Mini-2.5。作为Ling DT系列的首款模型,它基于Ling2.5的混合线性注意力架构,针对金融领域高并发、低时延的任务需求进行优化。该模型在保持专业深度的同时,将推理成本压缩至可规模化部署的水平。与业界主流同能力通用模型相比,其推理速度提升100%,硬件成本显著降低,为金融机构提供了切实可行的降本增效方案。
事实上,随着AI智能体加速渗透产业核心场景并执行真实任务,大小模型结合已成为行业发展趋势。近期,OpenAI相继推出两款小模型GPT‑5.4mini与nano,主打低延迟与高性价比,作为执行层子智能体的主力模型。
章鹏表示,技术发展终将回归产业对效率的理性追求。下一阶段,Token效能将成为衡量企业级AI价值的核心指标。蚂蚁数科将持续深耕企业级AGI领域,计划推出百灵企业版Ling DT大模型及其行业版,推动智能体在企业级复杂场景中的规模化应用。











