阿里巴巴近日宣布开源全新一代大模型千问Qwen3.5-Plus,该模型在性能上与Gemini 3 Pro不相上下,成为全球开源模型中的佼佼者。此次发布的Qwen3.5-Plus版本总参数高达3970亿,但激活参数仅为170亿,实现了以小博大的技术突破。其性能不仅超越了万亿参数的Qwen3-Max模型,还在部署显存占用上降低了60%,推理效率大幅提升,最大推理吞吐量可提升至19倍。Qwen3.5-Plus的API价格极具竞争力,每百万Token仅需0.8元,仅为Gemini 3 Pro的1/18。
与前几代千问大语言模型相比,Qwen3.5-Plus实现了从纯文本模型到原生多模态模型的重大转变。千问3主要在纯文本Tokens上进行预训练,而Qwen3.5-Plus则基于视觉和文本混合token进行预训练,并大幅增加了中英文、多语言、STEM和推理等数据。这使得模型能够“睁开眼睛”看世界,掌握更密集的世界知识和推理逻辑。在推理、编程、Agent智能体等全方位基准评估中,Qwen3.5-Plus均表现出色,例如在MMLU-Pro知识推理评测中得分87.8分,超越GPT-5.2;在博士级难题GPQA测评中斩获88.4分,高于Claude 4.5。
原生多模态训练也显著提升了Qwen3.5-Plus的视觉能力。在多模态推理、通用视觉问答VQA、文本识别和文件理解、空间智能、视频理解等众多权威评测中,Qwen3.5-Plus均取得了最佳性能。特别是在视频理解方面,该模型支持长达2小时的视频直接输入,适用于长视频内容分析与摘要生成。同时,Qwen3.5-Plus还实现了视觉理解与代码能力的原生融合,能够将手绘界面草图直接转为可用的前端代码,一张截图就能定位并修复UI问题,极大地提高了视觉编程的效率。
Qwen3.5-Plus性能的飞跃,得益于对Transformer经典架构的重大创新。千问团队自研的门控技术成果曾获得全球AI顶会2025 NeurIPS最佳论文,该技术已融入到Qwen3.5-Plus的创新混合架构中。团队结合线性注意力机制与稀疏混合专家MoE模型架构,实现了397B总参数激活仅17B的极致模型效率。通过训练稳定优化以及多token预测等系列技术,Qwen3.5-Plus的性能与Qwen3-Max模型持平,并进一步提升了推理效率。在常用的32K上下文场景中,推理吞吐量可提升8.6倍;在256K超长上下文情况下,推理吞吐量最大可提升至19倍。
Qwen3.5-Plus的原生多模态训练是在阿里云AI基础设施上高效完成的。通过系列基础技术创新,该模型在文本、图像、视频等混合数据训练吞吐量上,几乎与纯文本基座模型训练持平,大大降低了原生多模态训练的难度门槛。同时,通过设计精巧的FP8、FP32精度应用策略,在训练稳定扩展到数十万亿个token时,激活内存减少约50%,训练还能提速10%,进一步节约了模型训练成本、提升了训练效率。
基于强大的视觉能力,Qwen3.5-Plus在Agent框架和应用方面也取得了新突破。该模型可自主操作手机与电脑,高效完成日常任务,在移动端支持更多主流APP与指令,在PC端可处理更复杂的多步骤操作,如跨应用数据整理、自动化流程执行等。千问团队还构建了一个可扩展的Agent异步强化学习框架,端到端可加速3到5倍,并将插件式智能体Agent支持扩展至百万级规模。1月15日,千问App发布了全球首个消费级AI购物Agent,春节期间6天时间帮用户完成了1.2亿笔订单,在全球首次实现大规模真实世界任务执行和商业化验证。
自2023年开源以来,阿里巴巴已开源400多个千问模型,覆盖全尺寸、全模态,全球下载量突破10亿次。单月下载量方面,千问是DeepSeek、meta、OpenAI、智谱、Kimi、MiniMax等2到8名总和,开发者基于千问开发的衍生模型超20万,成为公认的全球第一开源模型,也是开发者最友好的开源大模型。面向不同国家的AI开发者和企业的需求,千问大模型还在持续演进,Qwen3.5-Plus已扩展支持201种语言,将词表大小从15万扩展到25万,可最高提升小语种60%的编码效率。据悉,千问APP、PC端已第一时间接入Qwen3.5-Plus模型,开发者可在魔搭社区和HuggingFace下载新模型,或通过阿里云百炼直接获取API服务。阿里巴巴还将继续开源不同尺寸、不同功能的千问3.5系列模型,性能更强的旗舰模型Qwen3.5-Max不久也将发布。









