中国人工智能企业DeepSeek近日宣布,其全新系列模型DeepSeek-V4的预览版本正式开放使用,并同步开源代码。该系列模型包含Pro与Flash两个版本,均具备百万级token超长上下文处理能力,用户可通过官网及官方应用程序直接体验。
在核心技术层面,DeepSeek-V4通过创新注意力机制实现突破。研发团队采用token维度压缩结合DSA稀疏注意力技术,在保持全球领先的长上下文处理能力的同时,显著降低计算资源与显存消耗。这项技术革新使得百万级上下文成为所有官方服务的标准配置。
性能评测显示,DeepSeek-V4-Pro在三大核心领域达到行业顶尖水平。在Agent能力方面,该模型在代码生成评测中超越所有开源竞品,成为企业内部开发首选工具,其交付质量已接近闭源模型Opus 4.6的非思考模式。世界知识测评结果表明,Pro版本仅以微弱差距落后于闭源模型Gemini-Pro-3.1,而数学与竞赛级代码能力则比肩全球顶级闭源系统。
针对不同应用场景,DeepSeek-V4提供差异化解决方案。Flash版本通过精简参数与激活量,在保持接近Pro版本的推理能力同时,提供更具性价比的API服务。在简单Agent任务中,Flash版本与Pro版本表现相当,但在复杂任务处理上仍存在提升空间。两个版本均支持非思考与思考双模式运作,其中思考模式可通过reasoning_effort参数调节推理强度。
开发者生态建设方面,DeepSeek同步开放兼容OpenAI ChatCompletions与Anthropic双接口标准的API服务。用户无需更改基础URL,仅需将模型参数调整为deepseek-v4-pro或deepseek-v4-flash即可完成系统切换。该设计极大降低了现有系统的迁移成本,为开发者提供灵活选择。
专项优化工作覆盖主流Agent应用场景。研发团队针对Claude Code、OpenClaw等工具进行深度适配,使模型在代码生成、文档处理等任务中的表现获得系统性提升。实测数据显示,优化后的模型在复杂代码结构生成与多模态文档转化方面效率提升显著。











