ITBear旗下自媒体矩阵:

华为昇腾快速适配阿里Qwen3.5新模型,为多模态研究应用提供技术支撑

   时间:2026-02-17 15:54:02 来源:ITBEAR编辑:快讯 IP:北京 发表评论无障碍通道
 

阿里云近日在人工智能领域再推重磅成果,正式上线Qwen3.5系列两款全新大模型——Qwen3.5-Plus与Qwen3.5-397B-A17B。这两款模型不仅支持文本处理,更突破性地实现了多模态任务处理能力,标志着阿里在通用人工智能领域的技术积累迈入新阶段。其中Qwen3.5-Plus作为3.5系列最新力作,Qwen3.5-397B-A17B则以开源旗舰定位,为全球开发者提供更强大的技术底座。

技术突破方面,Qwen3.5系列实现底层架构的全面革新。Qwen3.5-Plus版本总参数达3970亿,但通过动态激活机制仅需170亿参数即可运行,在保持性能超越前代万亿参数模型Qwen3-Max的同时,显存占用降低60%,推理吞吐量最高提升至19倍。该模型在视觉-文本联合训练数据规模上实现指数级增长,特别强化了中英文、多语言及STEM领域的数据质量,采用更严格的数据过滤标准,确保模型在复杂场景下的稳定性。

开源生态建设取得实质性进展。华为计算官方宣布,Qwen3.5模型发布后,昇腾AI团队在0天内完成技术适配,通过MindSpeed MM框架实现基于Atlas 800 A3、Atlas 900 A3SuperPoD等硬件的训练复现。该框架采用FSDP训练后端设计,将模型适配周期缩短80%,支持vLLM-Ascend和SGLang两种推理方案在Atlas 800 A2/A3设备上的高效部署,为产业界提供开箱即用的开发体验。

性能对比数据显示,Qwen3.5-397B-A17B在32k/256k上下文长度下,解码吞吐量分别达到Qwen3-Max的8.6倍和19.0倍,较Qwen3-235B-A22B提升3.5倍至7.2倍。多模态能力方面,该模型通过早期文本-视觉融合训练,在相近参数量级下显著优于Qwen3-VL。语言支持范围从119种扩展至201种语言及方言,词汇表扩容至25万,使多数语言的编码解码效率提升10%-60%。

技术文档显示,Qwen3.5系列采用Qwen3-Next架构,集成更高稀疏度的MoE(专家混合)机制、Gated DeltaNet+Gated Attention混合注意力模块,并通过稳定性优化和多token预测技术提升训练效率。目前,开发者可通过魔乐社区、gitcode社区获取vLLM部署方案,SGLang社区提供专用部署指导,形成完整的技术支持链条。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version