DeepSeek近期正加速推进新版本模型的灰度测试,业界普遍认为这或是其V4正式发布前的终极预览版本。部分用户反馈,在更新至1.7.4版本后,已能体验到模型性能的显著提升——上下文处理长度从128K扩展至1M,知识库更新至2025年5月,核心能力覆盖代码生成、数学推理、多语言处理等多个领域。实测显示,该版本在复杂任务处理上已与Gemini 3 Pro、K2.5等主流闭源模型持平,部分场景甚至表现更优。
据野村证券最新报告,DeepSeek V4预计于2月中旬正式亮相,但不会重现去年V3发布时引发的全球AI算力需求激增。报告指出,V4的核心突破在于通过底层架构创新推动AI商业化落地,而非颠覆现有技术生态。其引入的mHC(超连接与流形约束超连接)与Engram两项技术,分别从训练稳定性和内存调度效率切入,针对性解决国产硬件生态中的算力瓶颈问题。
mHC技术通过优化神经网络层间信息流动机制,解决了深度Transformer模型训练中的信息衰减问题。该架构在数学推理任务中表现尤为突出,实验数据显示其收敛速度较传统模型提升30%以上。Engram架构则创新性地将静态知识存储与动态计算解耦,通过稀疏内存表设计将实体、固定表达等数据转移至廉价DRAM,释放GPU内存用于核心计算任务。野村测算,该技术可使HBM内存占用降低40%,同时推理速度提升15%。
成本优化成为V4最直接的商业价值。报告分析,训练与推理成本的下降将激发下游应用需求,推动AI基础设施建设进入新周期。中国硬件厂商有望从需求放量与投资前置中双重受益,特别是在算力芯片互联带宽与计算密度存在代际差距的背景下,mHC技术可通过改善训练稳定性部分对冲硬件短板,而Engram架构则通过内存调度优化突破显存容量限制。
市场格局方面,DeepSeek正面临与一年前截然不同的竞争环境。2024年底,其V3/R1模型曾占据OpenRouter开源模型Token使用量的半壁江山,但到2025年下半年,随着meta、Anthropic等巨头加速开源布局,其市场份额已显著稀释。野村认为,这种"群雄割据"的局面反而加速了中国大模型生态的成熟,推动开源模型成为全球开发者的重要选择。
对于应用层企业,V4带来的效能提升正在创造新的价值空间。报告观察到,阿里通义千问等AI助手已能自动化执行多步骤任务,这类智能体与底层模型的交互频率较传统对话工具提升数倍,直接推高算力消耗。V4通过降低单位Token成本,使得软件企业能在维持高性能的同时扩大用户规模,形成"模型效率-应用规模-数据反馈"的正向循环。野村特别指出,那些能率先将V4能力转化为颠覆性AI原生应用的厂商,其市场估值可能因技术代差优势获得重估。








