中金在最新发布的研报中指出,全球大模型技术将在2025年持续突破生产力场景,在推理能力、编程效率、Agentic自主性以及多模态交互等领域取得显著进展。然而,当前模型在通用能力上仍存在稳定性不足、幻觉率偏高等短板,距离真正实现通用人工智能(AGI)仍有较大差距。报告预测,2026年将成为大模型技术跃迁的关键节点,强化学习、模型记忆、上下文工程等方向有望实现核心突破,推动模型从短文本生成向长思维链任务演进,并加速向原生多模态交互转型。
在技术架构层面,基于Transformer的模型仍将是主流,但平衡性能与效率的混合专家模型(MoE)将成为行业共识。不同注意力机制路线将持续优化,预训练阶段将形成"Scaling-Law+高质量数据+强化学习"的协同范式。报告特别提到,随着英伟达GB系列芯片的规模化应用,万卡级算力集群将支撑模型参数量突破现有瓶颈,旗舰模型的智能上限有望再上新台阶。这一趋势与海外科技巨头如OpenAI、Gemini的布局形成呼应,国内厂商如DeepSeek、阿里千问等也在加速跟进。
强化学习的重要性被提升至新高度。该技术通过"自我生成数据+多轮迭代"的机制,显著提升了模型的逻辑推理能力和人类偏好对齐度。中金分析指出,强化学习的关键在于大规模算力支撑与高质量数据供给,目前海内外头部厂商均已将强化学习作为核心研发方向。预计2026年,强化学习在模型训练中的占比将进一步提升,成为解锁复杂决策、创造性任务等高级能力的关键路径。
报告还关注到持续学习、模型记忆等新兴技术路线。针对大模型普遍存在的"灾难性遗忘"问题,Google提出的Titans、MIRAS等算法通过动态调整学习策略,使模型能够根据任务特性选择性记忆关键信息。这种机制不仅支持持续学习,甚至为终身学习提供了可能。与此同时,世界模型作为理解物理世界因果规律的重要工具,在Genie 3、Marble等不同技术路径的探索下,有望在2026年实现突破性进展。
尽管前景乐观,中金也提醒关注潜在风险。技术迭代速度可能低于预期,现有模型架构和训练范式存在被颠覆的可能性。特别是在算力成本、数据质量、伦理规范等关键约束条件下,大模型技术的商业化落地仍面临诸多不确定性。











