华为近日正式推出了一款名为Flex:ai的AI容器软件,该产品凭借其独特的算力切分技术,在行业内引发了广泛关注。这项技术能够将单张GPU或NPU算力卡细分为多个虚拟单元,最小切分粒度可精确至10%,从而让单张算力卡能够同时处理多个AI工作负载,大幅提升硬件资源的利用效率。
Flex:ai的核心优势不仅体现在单卡算力的精细化管理上,更在于其强大的集群算力整合能力。通过将集群内各计算节点的空闲XPU算力高效聚合,该软件构建了一个统一的“共享算力池”,实现了算力资源的全局调度与灵活分配。这种设计使得企业能够根据实际需求动态调整算力分配,避免资源浪费。
在技术实现层面,Flex:ai采用了一套深度融合软硬件的系统工程方案,覆盖从底层芯片到顶层调度的全链条优化。通过创新性的软件技术,该产品成功将GPU/NPU的典型利用率从30%-40%提升至70%,充分践行了“以软件补硬件”的理念。这一突破不仅降低了硬件成本,还显著提升了计算效率。
硬件协同方面,Flex:ai与华为自研的昇腾AI处理器进行了深度整合。通过软硬件协同设计优化,该软件实现了最佳的性能功耗比,为AI训练和推理提供了更高效的解决方案。特别是在大模型训练场景中,Flex:ai展现出了强大的异构算力管理能力,能够统一调度英伟达GPU和昇腾NPU等多种算力资源,有效解决了当前大模型训练面临的算力效率瓶颈问题。
为了推动技术共享与生态发展,华为决定在发布后将Flex:ai同步开源至魔擎社区。这一举措将为开发者提供更多创新可能,促进AI技术的普及与应用。通过开源合作,Flex:ai有望吸引更多企业和开发者参与其中,共同推动AI算力管理技术的进步。











