ITBear旗下自媒体矩阵:

华为开源盘古大模型:7B稠密+72B混合专家,加速AI生态布局

   时间:2025-06-30 22:11:10 来源:通信世界编辑:快讯团队 IP:北京 发表评论无障碍通道

华为近期在人工智能领域迈出了重要一步,正式对外宣布开源其盘古系列的两大模型及基于昇腾平台的推理技术。这一举措被视为华为深化昇腾生态战略的关键一环,旨在推动大模型技术的深入探索与创新,并加速AI技术在各行各业的落地应用。

具体来看,华为此次开源的模型包括拥有70亿参数的盘古稠密模型和采用混合专家架构(MoE)的盘古Pro MoE模型,后者更是拥有惊人的720亿参数。盘古Pro MoE模型通过创新的动态路由机制,有效分配计算资源,从而在保持模型规模的同时,显著提升了推理效率。

值得注意的是,华为不仅开源了这两大模型的权重和基础推理代码,还提供了基于昇腾AI的专用推理优化技术。这意味着开发者可以更加便捷地利用这些技术和模型,进行AI应用的开发与部署。据华为透露,针对超大规模MoE模型的昇腾优化推理代码也即将发布,这无疑将进一步推动AI技术的发展与应用。

消息一经发布,便在开源社区和产业界引起了积极反响。业内专家分析认为,华为此次开源行动具有深远意义。70亿参数的稠密模型和720亿参数的混合专家模型,为不同规模的企业提供了多样化的技术选择,有助于满足不同场景下的AI应用需求。同时,基于昇腾平台的深度优化,将极大提升开发者部署大模型应用的效率,这对于推动我国AI产业生态的快速发展具有重要意义。

华为的这一举措也被视为其在全球人工智能竞争中提升话语权的重要一步。随着AI技术的不断发展和应用领域的不断拓展,华为通过开源核心技术和优化工具,将吸引更多的开发者和合作伙伴加入到昇腾生态中来,共同推动AI技术的创新与应用,为行业的发展注入新的活力。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version