近日,人工智能领域迎来一则引发广泛关注的消息:在DeepSeek-R1发布满一周年之际,其神秘新模型“MODEL1”悄然现身于GitHub代码库,瞬间成为社区开发者热议的焦点。关于MODEL1的身份,众说纷纭,有人推测它极有可能是DeepSeek内测中的V3终极版本,即V4模型;也有人认为它或许代表着一个与V系列完全独立的新模型。
事情的起因是DeepSeek向其核心推理内核FlashMLA推送了一系列更新,在这些提交内容里,一个此前从未公开过的模型命名“MODEL1”吸引了社区的高度目光。这一名称不仅出现在SM90架构相关的.cu内核实例化文件中,还贯穿于多个针对FP8稀疏解码路径的模板定义与内存布局注释里。
据海外开发者推测,MODEL1背后极可能是一整套全新的推理机制、算子结构与底层内存配置,与DeepSeek现有的V3.2模型在技术路径上会呈现出截然不同的面貌。在相关代码文件中,MODEL1被大量用于核心解码函数的多个实例中,显式适配了头维度为64和128的场景,并且专门部署在SM90和SM100架构上。
深入查看代码,能发现多处调用了“ModelType::MODEL1”,与之对应的还有一套独立的持久化内核。这些文件与V32版本的持久化内核文件并行存在,这表明DeepSeek或许已经为该模型设计了与V3系列完全不同的编译路径与执行逻辑。
代码中还有一条特别注释格外引人注目,对于F3架构(即SM90平台)下的MODEL1模型,其KV缓存的内存stride必须是576B的整数倍。这一配置与V3.2的656B存在明显差异,暗示着MODEL1对底层内存对齐和调度有着更为严格的要求,很可能与其更复杂的运行时行为与动态缓存机制有关。目前,这条注释已在代码库内被删除。
一位海外网友对这部分代码进行了深入剖析,他认为MODEL1在整体结构上展现出更强的实验性特征。它支持动态Top-K稀疏推理逻辑,通过引入一个可变的topk_length指针,允许模型在推理时根据token或请求动态决定参与计算的key数量,极大地提升了计算资源的精细调度能力。同时,它还引入了额外的KV缓存区,通过extra_kv缓冲区,提供了将系统提示与用户上下文分离存储的可能,为Agent架构或多段上下文场景提供了有力支持。
社区开发者进一步分析指出,MODEL1在同步逻辑与边界控制上可能比V3.2更加复杂。其中RoPE与NoPE维度在双GEMM运算中耦合更紧,这意味着其在位置编码与张量路径调度上做出了显著调整。而且,MODEL1引入了运行时边界检查机制,旨在规避动态Top-K推理中潜在的非法内存访问。尽管官方注释中标明MODEL1的stride应为576B,但社区开发者基于代码结构估算,其实际内存分配逻辑可能接近584B,这种细微差异反映出该分支可能仍处于调试或快速迭代阶段。
此前,在1月9日,外媒曾援引知情人士消息称,DeepSeek将于2月中旬,也就是春节前后发布其下一代模型,该模型主打编程能力,并且在内部测试中已经在多个基准上超越了Claude与GPT系列。结合目前MODEL1的种种迹象,如模型文件结构已覆盖64和128两个头维度、FP8稀疏解码路径已完成适配、内存规范已强制定义等,可以推测MODEL1很可能已接近训练完成或推理部署阶段,正等待最终的权重冻结和测试验证。
在海外社交平台上,MODEL1的曝光引发了用户的热烈反应。一位用户调侃道:“我已经能听见‘新模型将带来99.97%成本下降’了。”另一位开发者则认为,如果DeepSeek再次开放权重,无疑将对闭源巨头形成巨大压力,推动前沿模型进一步走向开放。
恰逢DeepSeek R1发布一周年,Hugging Face官方博客发布了特别文章《One Year Since the “DeepSeek Moment”》,系统回顾了过去一年中国开源社区的集体爆发。文章明确提及,DeepSeek的开源策略已从一次事件演化为生态策略。R1模型的开源不仅降低了推理技术、生产部署与心理三个门槛,更推动了国内公司在开源方向上形成非协同但高度一致的战略走向。
过去一年中,从百度、字节跳动到月之暗面、智谱AI等各大机构,陆续加入Hugging Face并发布高质量模型,在社区下载、点赞与引用榜单上频频登顶。与此同时,越来越多西方开源模型的底座也开始使用DeepSeek系列做微调,DeepSeek-V3更是成为Cogito v2.1等海外模型的底层基座。









