近日,AI界迎来了一次备受瞩目的更新。知名AI企业深度求索悄然在用户社群中宣布,其明星产品DeepSeek的线上模型版本已成功升级至V3.1。此次升级不仅将上下文长度拓展至前所未有的128k,还对用户界面进行了优化,移除了DeepThink旁的R1标识。
紧随其后,在Hugging Face平台上,一款名为DeepSeek-V3.1-Base的新模型悄然上线。该模型迅速吸引了AI社区的广泛关注,短时间内便攀升至Hugging Face热门模型榜第四名,彰显了其强大的影响力和市场期待。
DeepSeek-V3.1-Base作为DeepSeek-V3系列中的最新基础模型,其命名方式引发了社区内的诸多猜测。相较于以往以V3加四位日期数字命名的形式,此次V3.1的命名显得尤为简洁,而深度求索官方并未对此进行明确说明。这一做法延续了该公司一贯的“模型先行,宣传随后”的策略。
从技术指标来看,DeepSeek-V3.1-Base与DeepSeek-V3相比并无太大差异,同样拥有庞大的参数量和混合专家(MoE)架构,上下文长度更是达到了惊人的128k。这一特性无疑将使其在处理长文本和复杂语境时展现出更为出色的性能。
然而,对于深度求索的这次更新,社交网络上却出现了截然不同的声音。部分网友对此表示振奋,认为这是深度求索在为接下来的DeepSeek-V4和DeepSeek-R2等更高级别模型做铺垫,预示着公司在AI领域的持续深耕和创新。但也有网友持保留意见,认为此次更新在技术创新和亮点方面稍显不足,未能达到公司以往的一贯水准。