ITBear旗下自媒体矩阵:

华为Flex:ai开源:破解算力难题,推动AI行业落地与平民化进程

   时间:2025-11-24 02:05:09 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

在人工智能技术深度渗透各行业的当下,算力的高效利用成为推动产业发展的关键要素。11月21日,2025AI容器应用落地与发展论坛于上海召开,华为公司副总裁、数据存储产品线总裁周跃峰博士在会上正式推出AI容器技术Flex:ai,并宣布联合上海交通大学、西安交通大学与厦门大学将这一产学研合作成果开源,旨在破解算力资源利用的瓶颈问题。

周跃峰在主题为《Flex:ai AI容器技术,释放AI基础设施潜力》的分享中指出,当前大型企业的AI系统建设普遍追求规模化,千卡、万卡集群对XPU资源的调度方式较为粗放。然而,当AI技术向行业渗透时,中小企业往往面临算力资源有限的困境,例如仅拥有4卡、8卡或16卡的集群。这类场景下,如何以更精细的算力单元进行调度、充分释放每张卡的算力,成为亟待解决的问题。Flex:ai正是为满足这一需求而生,其通过多级智能调度、算力资源切分及跨节点聚合技术,显著提升算力利用率,推动AI技术向更广泛的行业场景落地。

他进一步解释,传统AI系统在任务调度上存在显著痛点:小任务单卡算力过剩,资源闲置;大任务单机算力不足,需多机协同;多任务并发时,资源调度效率低下。例如,医院病理科室的AI诊断场景中,多名医生同时使用NPU资源进行病理切片分析,若仅依赖增加硬件数量,成本压力将难以承受。Flex:ai通过虚拟化技术将单卡拆分为更小算力单元,并实现跨节点资源聚合,有效解决了这些挑战。

华为在推动AI行业化落地的过程中,已持续开源多项技术成果。此前发布的DCS AI全栈解决方案中,全流程工具链ModelEngine已开放,支持AI工程师高效对接和优化模型;数据汇聚工具链框架则加速了数据飞轮效应,提升模型自进化能力。今年,为优化推理效率,华为还推出了UCM推理记忆管理器,通过分级存储推理数据至HBM、DRAM和SSD,结合数据系数矩阵管理,进一步降低了推理延迟。

Flex:ai的研发始于一年前,华为与上海交大、西安交大、厦门大学的科研团队围绕多级调度、资源切分和跨节点聚合等核心技术展开联合攻关。周跃峰强调,AI行业化落地需要产业链各方协同创新,开源是加速技术普及的重要途径。Flex:ai的代码将全面开放至模型社区,供开发者共同完善,同时华为将持续与三所高校深化合作,推动技术迭代。

此次开源标志着华为在AI基础设施领域的又一次突破。通过降低算力使用门槛,Flex:ai有望让更多企业和机构以低成本部署AI应用,从医疗诊断到智能制造,从智慧城市到教育科研,技术红利将覆盖更广泛的场景。随着社区生态的壮大,这一容器技术或将成为推动AI平民化的关键基础设施。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version