ITBear旗下自媒体矩阵:

华为盘古718B模型脱颖而出:数据质量与技术创新双轮驱动

   时间:2025-09-29 15:24:42 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

在竞争激烈的大模型领域,华为凭借其7180亿参数的MoE架构模型openPangu-Ultra-MoE-718B,于最新一期SuperCLUE中文大模型通用基准测评中跻身前三,引发行业广泛关注。该测评通过数学推理、科学推理、代码生成等六大核心维度,综合评估1260道题目,华为模型在开源与国产模型赛道中展现出强劲实力。

与传统依赖海量数据堆砌的路径不同,openPangu团队提出“以思考替代堆砌”的训练哲学,构建了覆盖数据生成、筛选、增强的全流程质量控制体系。团队建立三级审核机制,结合规则模型与人工评估,严格过滤低质量样本;同时通过去重算法与压缩选样技术,在保证领域覆盖广度的前提下避免数据冗余。针对模型复杂场景推理能力不足的痛点,团队引入自迭代拒绝采样策略,重点强化中高难度任务训练,确保模型适应真实世界的复杂需求。

在预训练阶段,团队创新设计三阶段递进策略:通用阶段通过大规模文本与代码学习构建世界知识基础;推理阶段大幅提升数学、STEM及代码数据比重,并引入详细思维链(CoT)引导模型学习逻辑路径;退火阶段则通过阶梯式扩展上下文长度至128K,同步增加指令类数据与Agent交互数据,为模型使用外部工具奠定基础。这种分阶段强化核心能力的训练方式,有效平衡了模型的知识广度与推理深度。

针对大型语言模型普遍存在的幻觉问题,研究团队开发出“批判内化”机制。该机制突破传统批判微调依赖固定人类反馈的局限,在模型训练后期引入自我批判信号,使其能够根据任务准则主动审视推理过程。实验数据显示,这一创新使模型在逻辑链条完整性、指令遵从性及价值观对齐方面显著提升,输出结果更加精炼可靠。

在工具使用能力提升方面,团队推出ToolACE合成框架,通过领域工具组合、交互式轨迹生成等技术,生成高复杂度多轮工具调用数据。例如将日历查询与航班预订工具关联,提供依赖关系图谱;采用“计划-执行”分离策略模拟真实交互场景;引入多智能体对话生成复杂交互数据。多维校验机制则对生成数据进行内容满足度、状态变化正确性等维度评估,形成数据迭代优化的闭环。

后训练阶段,团队实施三步优化方案:渐进动态微调通过平滑过渡常规SFT与动态微调模式,避免过拟合风险;强化学习阶段采用GSPO算法提升大型MoE模型训练稳定性;模型融合环节运用黑盒优化技术,自动搜索不同版本模型的最佳组合权重。这种系统性优化策略,使最终模型在综合性能上实现质的飞跃。

openPangu-718B的成功实践表明,大模型竞争的核心已从数据规模转向技术深度。通过构建质量优先的数据体系、设计分阶段能力强化路径、创新幻觉控制机制、开发高仿真工具学习框架,华为为行业提供了技术突破的新范式。这种对技术细节的极致打磨,正重新定义大模型时代的核心竞争力标准。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version