ITBear旗下自媒体矩阵:

谁是谁的“老师”?Mistral CEO 称 DeepSeek 借鉴其架构引发技术圈热议

   时间:2026-01-26 16:09:14 来源:CHINAZ编辑:快讯 IP:北京 发表评论无障碍通道
 

近日,一场关于 AI 架构起源的争论在社交媒体上闹得沸沸扬扬。被誉为“欧洲版 OpenAI”的MistralCEO Arthur Mensch 在接受访谈时表示,中国强劲的开源模型DeepSeek-V3实际上是基于 Mistral 提出的架构构建的。此番言论一出,立即引来了全球开发者和网友的围观与质疑。

核心争议:是“致敬”还是“自主创新”?

Arthur Mensch 在访谈中提到,Mistral 在2024年初发布了首个稀疏混合专家模型(MoE),而他认为 DeepSeek 随后的版本都是在此基础上构建的,称其“采用了相同的架构”。

然而,严谨的网友通过查阅 arXiv 上的原始论文发现了疑点:

发布时间胶着:Mixtral的论文与DeepSeek MoE论文的发表时间仅相差3天,很难界定谁真正影响了谁。

架构思路迥异:虽然两者都属于稀疏混合专家系统(SMoE),但 Mixtral 更偏向工程优化,而 DeepSeek 在算法上进行了深度重构。

专家设计不同:DeepSeek 引入了“细粒度专家分割”和“共享专家”机制,将通用知识与特定知识解耦,这与 Mixtral 的扁平化专家设计有本质区别。

技术反转:谁在“岁月史书”?

令人玩味的是,这场争论很快出现了反转。有技术专家指出,与其说 DeepSeek 借鉴了 Mistral,倒不如说情况可能相反。

架构回流:2025年底发布的Mistral3Large被网友扒出,其底层架构反而与 DeepSeek-V3采用的 MLA 等创新技术高度相似。

影响力变迁:网友调侃称,Mistral 似乎在试图通过“改写历史”来挽回技术领先地位的流失,因为 DeepSeek 在 MoE 架构的创新上显然获得了更大的行业影响力。

AI 界的“共同进步”还是“嘴炮大战”?

尽管存在争论,但正如 Mensch 在访谈前半部分所说,开源精神的核心在于“大家在彼此的基础上不断进步”。

竞争白热化:DeepSeek已被曝瞄准2026年春节档,准备发布更强的新模型。

开源之争:Mistral 也在持续更新其Devstral家族,试图夺回开源编程智能体的高地。

这场“口水仗”背后,反映出全球顶尖 AI 实验室在技术迭代速度上的极度焦虑。在代码与公式面前,单纯的口头宣誓往往无力,真正的胜负终将在模型性能的实测中揭晓。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version