ITBear旗下自媒体矩阵:

首个AI计算开放架构亮相 国内智算产业迈向开放协作 集群创新破局算力难题

   时间:2025-09-11 00:47:27 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在2025世界智能产业博览会上,国内智能计算领域迎来重要突破——中科曙光联合20余家产业链企业,正式发布国内首个AI计算开放架构,并推出曙光AI超集群系统。这一创新举措标志着中国智能计算产业迈入全面开放协作的新阶段,被业界视为构建“中国版安卓生态”的关键一步。

当前,中国算力规模已跃居全球第二。截至2024年底,全国算力总规模达280 EFLOPS,其中智能算力占比32%。IDC预测,2025年中国算力规模将突破1000 EFLOPS。然而,高端算力供给不足、国产加速卡性能差距、算力成本高企、生态不成熟等问题,仍制约着产业向“好用算力”升级。行业共识认为,单点突破已无法满足需求,必须通过集群创新实现降本增效。

“大模型迭代速度已从每年3-4次缩短至每周一次,但AI芯片研发周期仍需两年,性能提升边际效应递减。”中科曙光高级副总裁李斌指出,破解“算力空转”困局,需要产业链上下游企业打破壁垒,实现跨层协作。他以智能手机产业类比:“过去IT时代像苹果模式,各环节独立优化;现在智能计算时代需要安卓模式,通过开放协作应对技术融合挑战。”

作为国家先进计算产业创新中心牵头单位,中科曙光此次发布的AI计算开放架构,以GPU为核心构建高效紧耦合系统,覆盖“算、存、网、电、冷、管、软”全链条。其核心载体——曙光AI超集群系统,单机柜支持96张加速卡、百P级算力,最大可扩展至百万卡规模。通过“超级隧道”存储优化、软硬协同设计等技术,千卡集群训推性能达业界主流水平2.3倍,模型开发效率提升4倍,GPU算效增加55%,故障修复时间缩短47%。

与传统封闭系统不同,曙光AI超集群系统兼容多品牌GPU加速卡,支持CUDA等主流生态,为用户提供硬件选择自由,同时降低软件开发适配成本。中科曙光总裁助理杜夏威强调:“这不仅是产品,更是开放创新平台。通过适配不同品牌GPU,用户可保护前期投资,避免被单一技术路线绑定。”

为推动生态共建,中科曙光宣布开放三项核心技术能力:AI存储优化技术、液冷基础设施设计规范、DeepAI基础软件栈。其中,液冷技术对AI大集群至关重要。曙光数创副总裁张鹏透露,公司历经冷板式、浸没相变式到浸没式液冷技术迭代,在浸没式液冷市场占有率超50%,此次发布的多层级液冷方案可显著提升系统交付性价比。

针对跨厂商技术对齐难题,中科曙光联合芯片、整机等企业,依托国家先进计算产业创新中心成立“AI计算开放架构联合实验室”。该实验室将聚焦部件级、系统层、基础设施层等五类技术开放,减少重复研发,降低中小企业创新门槛。杜夏威表示:“从2018年牵头成立创新中心开始,我们就致力于拉通上下游资源。此次构建开放架构,是要打破‘技术墙’与‘生态墙’,形成良性协作生态。”

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version