ITBear旗下自媒体矩阵:

华为昇腾快速适配阿里Qwen3.5新模型 助力多模态大模型高效应用

   时间:2026-02-17 16:57:01 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

阿里近日在chat.qwen.ai平台悄然推出两款全新大模型——Qwen3.5-Plus与Qwen3.5-397B-A17B,支持文本与多模态任务处理。其中,Qwen3.5-Plus被定位为Qwen 3.5系列最新迭代的大语言模型,而Qwen3.5-397B-A17B则作为开源旗舰模型亮相,标志着该系列在技术开放与生态共建上迈出重要一步。

华为计算团队同步宣布,基于昇腾AI算力,Qwen3.5开源模型已实现高效适配。通过MindSpeed MM框架与FSDP训练后端技术,该模型在Atlas 800 A3、Atlas 900 A3SuperPoD等硬件上完成训练复现,并支持vLLM-Ascend与SGLang框架在Atlas 800 A2、A3设备上的推理部署。这一进展显著缩短了模型适配周期,为开发者提供“开箱即用”的体验,同时降低多模态大模型的应用门槛。

技术层面,Qwen3.5系列实现底层架构全面升级。以Qwen3.5-Plus为例,其总参数规模达3970亿,但激活参数仅170亿,性能超越此前万亿参数的Qwen3-Max模型。得益于架构优化,该模型部署显存占用减少60%,推理效率大幅提升,最大吞吐量可提升至19倍。另一旗舰模型Qwen3.5-397B-A17B在32k与256k上下文长度下,解码吞吐量分别达到Qwen3-Max的8.6倍与19.0倍,同时保持性能相当。

在能力维度,Qwen3.5通过扩大视觉-文本语料训练规模,强化中英文、多语言及STEM领域数据,并采用更严格的数据过滤机制。测试显示,Qwen3.5-397B-A17B在多项基准测试中与参数量超1T的Qwen3-Max-Base表现持平。效率方面,基于Qwen3-Next架构,模型引入更高稀疏度的混合专家(MoE)设计、Gated DeltaNet与Gated Attention混合注意力机制,并优化稳定性与多token预测能力,显著提升长文本处理效率。

通用性扩展是Qwen3.5的另一重点。通过早期文本-视觉融合训练与扩展的视觉、STEM及视频数据,模型实现原生多模态支持,在相近规模下优于前代Qwen3-VL。语言覆盖范围从119种增至201种语言及方言,词表规模扩大至25万(原为15万),使多数语言的编码与解码效率提升10%-60%。这些改进使其更适应全球化应用场景,满足跨语言、跨模态的复杂需求。

目前,开发者可通过魔乐社区、gitcode社区获取vLLM框架部署指导,或访问SGLang社区了解相关技术文档。这一系列开放举措旨在降低大模型应用门槛,推动AI技术在更多行业的落地与创新。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version