近日,科技领域传来新动态,DeepSeek正对其网页端和APP进行新功能测试,此次测试聚焦于全新的长文本模型结构,该结构可支持高达1M的上下文。不过,其API服务目前依旧保持为V3.2版本,仅支持128K上下文。
这一动作引发外界诸多猜测,不少人认为DeepSeek或许会在今年春节期间再次带来惊喜,发布新模型,有望重现去年春节时引发行业轰动的盛况。此前,DeepSeek在模型研发方面就动作不断,展现出强大的技术实力与创新能力。
今年1月12日,DeepSeek联合北京大学共同完成了一篇颇具影响力的论文《Conditional Memory via Scalable Lookup:A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大语言模型稀疏性的新维度),梁文锋位列作者名单。论文聚焦于当前大语言模型存在的记忆力不足问题,创新性地提出了“条件记忆”这一概念,为解决该问题提供了新的思路与方向。基于此,行业普遍推测DeepSeek的下一代模型V4极有可能在今年春节前后正式亮相。
回顾去年12月1日,DeepSeek曾一次性发布两个正式版模型,分别是DeepSeek-V3.2和DeepSeek-V3.2-Speciale。目前,官方网页端、App以及API均已更新为正式版DeepSeek-V3.2,而Speciale版本则以临时API服务的形式开放,主要用于社区评测与研究工作。
据了解,DeepSeek-V3.2在研发过程中有着明确的目标,即平衡推理能力与输出长度,使其更贴合日常使用场景,例如问答场景以及通用Agent(智能体)任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2展现出不俗的实力,达到了GPT-5的水平,仅稍逊于Gemini-3.0-Pro。与Kimi-K2-Thinking相比,V3.2的输出长度大幅降低,有效减少了计算开销,同时也显著缩短了用户的等待时间。











