ITBear旗下自媒体矩阵:

中科曙光携手20余家企业发布AI计算开放架构 推动国产智算迈向开放协作新生态

   时间:2025-09-06 16:23:56 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在2025世界智能产业博览会上,一场关于AI计算生态的变革拉开帷幕。中科曙光联合20余家AI芯片、整机、大模型等产业链企业,共同发布国内首个AI计算开放架构,并推出曙光AI超集群系统。这一系列动作不仅为国内智算产业注入新动能,更标志着中国智能计算生态向开放协作迈出关键一步。

当前,大模型技术迭代加速,AI算力需求呈指数级增长。然而,国内AI算力领域面临多重挑战:高端算力供给短缺、国产加速卡性能与海外存在差距、算力成本居高不下、自主软硬件生态尚未成熟。在此背景下,构建更大规模、更高效率的智算集群成为破局关键。中科曙光高级副总裁李斌指出,单纯依靠少数企业封闭式优化已难以满足需求,需通过产业链跨层协作,打造开放式、标准化的集群算力体系。“国内智算产业需要‘苹果式’的头部引领,更需要‘安卓式’的生态创新。”他强调,AI计算开放架构正是以GPU为核心,通过“算、存、网、电、冷、管、软”全链条协同创新,突破算力瓶颈,推动算力普惠。

作为开放架构的核心载体,曙光AI超集群系统同步亮相。据中科曙光总裁助理杜夏威介绍,该系统具备“超高性能、超高效率、超高可靠、全面开放”四大特性,单机柜支持96张加速卡,提供百P级AI算力,最大可扩展至百万卡规模。通过“超级隧道”存储优化、软硬协同设计、智能调度大模型等技术,系统实现千卡集群大模型训练推理性能达行业主流水平的2.3倍,模型开发效率提升4倍,GPU算效提高55%,平均无故障时间(MTBF)延长2.1倍,故障修复时间(MTTR)缩短47%。

与专有封闭系统不同,曙光AI超集群系统兼容多品牌GPU加速卡及CUDA等主流软件生态,为用户提供灵活选择,同时大幅降低硬件采购与软件开发适配成本。杜夏威表示,这一设计旨在保护用户前期投资,避免因技术路线锁定导致的资源浪费,为行业用户提供更具性价比的解决方案。

为加速生态创新,中科曙光宣布开放三项关键技术能力:AI存储优化技术、液冷基础设施设计规范、DeepAI基础软件栈。这些技术覆盖部件级、系统层、基础设施层、软件层及数据集五大层面,可帮助合作伙伴在存储性能加速、液冷超节点设计、GPU统一开发框架等领域实现深度定制优化。例如,通过开放液冷设计规范,中小企业可快速构建高效散热系统,降低数据中心能耗;DeepAI软件栈的共享则能减少重复开发,提升整体研发效率。

面对开放生态中跨厂商技术对齐的难题,中科曙光联合20余家产业链企业,依托国家先进计算产业创新中心成立“AI计算开放架构联合实验室”。该实验室将聚焦技术标准制定、跨层优化协作及生态共建,推动从芯片到应用的全链条开放。李斌强调,联合实验室的目标是构建一个“无边界”的创新平台,让中小企业也能参与核心技术创新,共同打造普惠、可持续的中国智能计算产业生态。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version