ITBear旗下自媒体矩阵:

浪潮信息发布超节点AI服务器,为万亿参数开源模型提供强大开放底座

   时间:2025-08-08 19:49:36 来源:智东西编辑:快讯团队 IP:北京 发表评论无障碍通道
 

近期,国产模型领域迎来了一波重量级的开源潮,此次开源的模型参数量实现了质的飞跃,从数千亿跃升至万亿级别,为各行业智能化转型奠定了坚实的基础。然而,随着模型体积的不断膨胀,传统集群架构在通信效率、I/O性能以及系统扩展性方面逐渐捉襟见肘,难以满足当前开源模型的部署需求。

面对这一挑战,各类“超节点”方案应运而生,旨在通过集成更多GPU资源并优化节点间通信性能,突破传统架构的性能瓶颈。浪潮信息在这一背景下,正式推出了面向万亿参数大模型的超节点AI服务器——元脑SD200。

元脑SD200依托浪潮信息自研的多主机低延迟内存语义通信架构,单机内集成了64路加速计算芯片,支持DeepSeek、Qwen、Kimi、GLM四大国产顶级开源模型的同时运行,以及多智能体的实时协作与按需调用。这一创新方案不仅提升了算力密度,还显著优化了通信性能,为大规模模型的高效运行提供了有力保障。

浪潮信息作为开放计算生态的积极推动者,此次推出的超节点方案采用了OCM+OAM的开放架构设计,兼容多款本土GPU芯片与大部分主流AI框架,并已率先实现商用。这一方案的推出,不仅展示了浪潮信息在技术创新方面的实力,也为中国本土产业链的发展提供了重要机遇。

在模型规模持续膨胀的背景下,AI算力需求发生了显著变化。万亿参数级模型的推理过程中,键值缓存需求激增,显存与带宽成为制约AI基础设施性能的关键因素。同时,随着大模型加速进入各行各业,推理型负载成为主流计算模式,对通信性能提出了更高要求。Agentic AI的兴起进一步拉高了计算系统的需求,智能体在执行任务时生成的token数量远超传统模型。

为了应对这些挑战,构建高度集成、低延迟、高带宽的Scale-Up系统成为现实的技术选择。浪潮信息的元脑SD200超节点正是这一理念的典型体现,通过构建超低延迟的统一显存空间,将万亿级模型参数及激增的KV Cache整体容纳于单一高速互连域内,保障了多芯片间的高效协同执行,显著减少了跨节点通信开销。

在性能表现方面,元脑SD200超节点经过软硬件的系统协同优化,实现了显著的性能提升。在真实部署环境下,满机运行DeepSeek R1全参模型推理性能提升比为370%,满机运行Kimi K2全参模型推理性能提升比为170%。SD200超节点配备高达4TB的显存,能够同时容纳多个旗舰级开源模型,为未来可能出现的更大规模模型预留了充足空间。

在打造这一方案时,浪潮信息注重实际落地的可行性,在使用便利性上进行了优化设计。例如,采用风冷散热方案,无需改造机房即可灵活部署;在互连方案上选择了更为成熟稳健的全铜电互连,提升了系统稳定性,降低了运维复杂度和成本。SD200超节点还全面兼容当前主流的开源大模型计算框架,可实现新模型的无缝迁移与快速上线。

浪潮信息在融合架构和软硬件协同方面的深厚积累,为元脑SD200超节点方案的成功推出提供了坚实基础。自2010年起,浪潮信息持续推进融合架构演进,沉淀下来的芯片共享内存数据、统一编址技术、池化、资源动态调度等技术,在超节点系统中得以延续和应用。浪潮信息在大模型领域的深度布局也为SD200提供了坚实支撑。

通过软硬协同系统创新,元脑SD200超节点成功实现了纵向扩展,帮助本土AI芯片突破了性能边界,在大模型场景中展示出优异的性能表现。这一方案的推出,不仅提升了AI算力的性能和效率,也为中国本土产业链的发展提供了重要推动力量。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version