在ChatGPT迎来三周岁生日之际,硅谷科技圈的焦点意外转向了来自中国的DeepSeek团队。这家公司最新发布的两款开源模型——DeepSeek-V3.2及其增强版V3.2-Speciale,正在全球范围内引发强烈反响。据参与NeurIPS 2025学术会议的学者透露,在飞往圣地亚哥的航班上,近三分之一的乘客都在专注研读这两款模型的技术文档。
这场技术风暴的冲击力远超预期。上周刚断言DeepSeek"昙花一现"的推特言论,在发布当晚就获得超过500万次浏览。OpenAI首席执行官奥特曼紧急启动红色预警机制,甚至临时叫停了原定在ChatGPT平台投放的广告计划。谷歌Gemini团队更遭遇网友集体"喊话",社交媒体上充斥着"DeepSeek归来,你们还睡得着吗"的调侃。
技术评测数据显示,标准版V3.2在推理任务中已达到GPT-5水平,仅以微弱差距落后于Gemini-3.0-Pro。而增强版V3.2-Speciale则实现全面超越,不仅在主流推理基准测试中与Gemini-3.0-Pro不相上下,更在国际数学奥林匹克(IMO)、中国数学奥林匹克(CMO)等顶级竞赛中斩获金牌。特别值得关注的是,该模型在ICPC国际大学生程序设计竞赛和IOI国际信息学奥林匹克竞赛中,分别达到人类选手第二名和第十名的成绩。
DeepSeek研究院在技术报告中揭示了突破性进展的核心:通过稀疏注意力机制(DSA)解决长上下文处理效率问题,为强化学习(RL)在超长序列中的应用奠定基础。研究团队投入超过预训练阶段10%的算力进行后训练优化,使模型在通用推理能力上实现质的飞跃。增强版更通过解除RL的长度限制,迫使模型生成极长的"思维链",这种自我修正机制显著提升了复杂问题解决能力。
成本对比数据引发行业震动。以百万token输出成本计算,V3.2比GPT-5低24倍,较Gemini 3 Pro便宜29倍。随着输出量增加,这个差距最高可达43倍。具体到应用场景,生成《三体》三部曲规模的内容,使用GPT-5约需800元,Gemini 3 Pro需1000元,而DeepSeek-V3.2仅需35元左右。这种成本优势正在动摇闭源模型的商业根基。
技术社区的讨论揭示出更深层影响。有开发者指出,V3.2-Speciale在解决特定问题时需要消耗7.7万个token,是Gemini的近4倍。但这种"算力换性能"的策略,在价格优势面前仍具竞争力。更令行业担忧的是,DeepSeek模型已展示出在国产硬件(如华为昇腾芯片)上的优化潜力,这可能进一步压缩推理成本。
性能评测显示,V3.2系列在HLE和GPQA等知识型基准测试中稍显逊色。研究团队坦言,这主要受限于计算资源投入,单纯依靠强化学习难以达到预训练模型的知识储备水平。这种技术路径选择,实际上揭示出开源与闭源模型的新竞争维度——当算力资源不再成为绝对门槛,模型优化的方向将发生根本性转变。
行业观察家指出,DeepSeek的突破证明AI发展存在多条可行路径。预训练阶段的规模扩展固然重要,但强化学习在长上下文场景下的持续优化同样能带来显著收益。这种技术路线的验证,为资源有限的研发团队开辟了新方向,也可能重塑整个AI产业的竞争格局。











