华为近日正式推出名为Flex:ai的AI容器软件解决方案,该技术通过创新的算力切分机制,将单张GPU或NPU硬件的算力资源进行精细化分割。据技术文档显示,系统支持将物理算力卡划分为多个虚拟单元,切分精度可达总算力的10%,这种设计使得单张硬件能够同时运行多个AI计算任务。
在资源调度方面,Flex:ai突破了传统硬件的负载限制。通过动态分配机制,系统能够根据不同AI模型的计算需求,将切分后的虚拟单元灵活分配给多个工作负载。例如在图像识别与自然语言处理混合场景中,单张GPU可同时支撑5-8个轻量化模型的并行运算,硬件利用率较传统模式提升3-5倍。
该技术更引人注目的创新在于构建了分布式算力共享体系。在集群部署环境下,Flex:ai能够自动识别各节点的空闲算力资源,通过智能聚合算法将这些离散资源整合为统一的"共享算力池"。这种设计使得企业无需额外购置硬件即可应对突发性的算力需求,特别适用于AI训练任务波动较大的研发场景。
为推动技术生态建设,华为决定将Flex:ai的核心代码开源发布。开发团队选择在魔擎社区作为主要开源平台,提供完整的开发文档与使用案例。技术白皮书显示,开源版本已支持主流AI框架的深度适配,并预留了二次开发接口,方便开发者根据特定场景进行功能扩展。
行业分析师指出,这种软硬件协同优化方案有望重塑AI算力市场格局。通过将硬件资源虚拟化与集群管理相结合,Flex:ai既降低了中小企业使用高端算力的门槛,也为大型数据中心提供了更高效的资源调度方案。特别是在多模态AI应用快速发展的当下,该技术可能成为推动AI平民化的重要基础设施。








