近期,网络上流传了一则关于华为与阿里巴巴在大型语言模型领域的争议消息。据传,一项在GitHub和arXiv平台上发布的研究,将华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴达摩院发布的通义千问Qwen-2.5 14B模型进行了对比,指出两者在参数结构上存在“高度相似性”。此消息迅速引起了业界的广泛关注和讨论,并附上了一些疑似证据。
具体而言,据相关爆料,一个名为HonestAGI/LLM-Fingerprint的研究团队在GitHub上进行了多个主流模型的对比实验。他们发现,盘古Pangu Pro MoE与Qwen-2.5 14B模型在注意力模块上展现出了极高的相似性,而这种相似性在其他模型的对比中并未出现。这一发现引发了关于盘古模型是否基于Qwen模型进行训练或修改的质疑。
面对这一争议,华为盘古Pro MoE技术开发团队迅速做出了回应。他们表示,盘古Pro MoE开源模型的部分基础组件代码实现参考了业界的开源实践,并涉及其他开源大模型的部分代码。华为强调,他们严格遵循了开源许可证的要求,并在开源代码文件中清晰标注了开源代码的版权声明。这一做法不仅符合开源社区的通行规则,也体现了业界倡导的开源协作精神。
华为团队进一步指出,他们始终坚持开放创新的原则,尊重第三方的知识产权。同时,他们也提倡包容、公平、开放、团结和可持续的开源理念。华为对全球开发者与合作伙伴对盘古大模型的关注和支持表示感谢,并高度重视开源社区的建设性意见。他们希望通过盘古大模型的开源,与志同道合的伙伴一起探索并不断优化模型能力,加速技术突破与产业落地。