国家超算互联网AI社区近日迎来重要技术突破——DeepSeek-V4预览版模型正式上线,标志着国产大模型在百万级上下文处理能力领域迈入新阶段。该模型由国家超算互联网平台联合众智FlagOS团队研发,通过适配国产异构加速卡与统一软件栈,实现了从模型训练到部署的全流程国产化支持,为科研机构、企业及开发者提供了高效便捷的AI开发工具。
此次发布的DeepSeek-V4包含Pro与Flash两个版本,均支持百万Token超长上下文处理。其中Pro版本在代码生成、逻辑推理等复杂任务中表现优异,性能指标达到国际顶尖闭源模型水平;Flash版本则通过优化计算架构,在保持核心能力的同时显著降低算力消耗,满足不同场景的差异化需求。两个版本均通过国家超算互联网核心节点的万卡集群系统完成适配验证,确保在国产硬件环境下的稳定运行。
针对大模型部署过程中的算力瓶颈与跨平台适配难题,研发团队创新性地采用众智FlagOS统一软件栈,构建了覆盖主流国产加速卡的模型镜像库。用户可通过AI社区一键下载模型文件,利用预置的自动化部署工具,在数分钟内完成从环境配置到推理服务的全流程搭建。经实测,该方案可使跨芯适配成本降低70%以上,模型迁移效率提升3倍,有效解决了国产AI生态碎片化问题。
作为国内首个超算级AI开放平台,国家超算互联网已形成覆盖120万用户的创新生态。AI社区目前汇聚1300余款开源模型,其中DeepSeek系列占比超2%,形成从基础大模型到垂直领域应用的完整矩阵。平台通过算力共享、技术协作等机制,成功吸引飞桨·文心、MiniMax等30余家头部机构入驻,在智能制造、生物医药等领域孵化出200余个标杆应用案例。
此次DeepSeek-V4的上线,不仅丰富了平台的高性能模型供给,更通过百万上下文能力的普惠化,为金融分析、科研文献处理等长文本场景提供技术支撑。平台运营方表示,未来将持续优化模型迭代机制,联合生态伙伴构建从硬件适配到场景落地的完整技术链条,推动国产AI技术向更高水平的自主可控发展。











