阿里巴巴正式推出全新一代开源大模型千问Qwen3.5-Plus,凭借多项技术创新在性能与性价比维度实现突破。该模型总参数规模达3970亿,但通过极致稀疏架构设计,实际激活参数仅170亿,在推理效率提升的同时,部署显存占用降低60%,最大推理吞吐量较前代提升19倍。官方数据显示,其API调用价格每百万token低至0.8元,仅为同类产品Gemini 3 Pro的十八分之一。
技术架构层面,Qwen3.5-Plus实现四大核心突破。混合注意力机制通过动态分配计算资源,使模型在处理长文本时自动聚焦关键信息,突破传统全量计算导致的算力瓶颈。极致稀疏MoE架构创新性地构建"专家子网络"激活机制,仅用不足5%的参数即可调用全部知识储备,在保持3970亿参数规模的前提下,将推理成本降至行业新低。原生多Token预测能力让模型具备"多步规划"能力,推理速度较传统逐token生成方式提升近一倍,特别在代码补全、长文本生成等场景中实现"秒级响应"。系统级稳定性优化通过注意力门控、归一化策略改进等技术手段,确保超大规模训练的稳定性,相关成果已获NeurIPS 2025最佳论文奖。
在多模态交互领域,Qwen3.5-Plus展现出颠覆性能力。其视觉智能体技术突破传统聊天机器人局限,可精准识别屏幕元素坐标与功能属性,模拟点击、滑动等操作。官方演示显示,模型能在移动端跨应用完成信息提取、数据整理、流程自动化等复杂任务,在PC端实现多步骤办公流程的自主执行。跨应用协作能力打通数据孤岛,例如自动从邮件提取信息、读取表格数据后通过通讯软件发送,这种"用户代理"模式重新定义了人机协作范式。
视觉编程能力成为该模型另一技术亮点。在演示案例中,用户仅需展示网页设计草图,模型即可在6分48秒内生成包含完整HTML/CSS/Javascript代码的可用页面,并自动匹配适配素材。这种"从草图到产品"的转化能力,源于模型对视觉元素与语义逻辑的深度理解——既能识别圆形代表按钮、线条代表布局分隔,更能推断"导航栏""内容区"等设计意图。原生多模态架构使模型在预训练阶段即完成文本与视觉信息的深度融合,支持直接处理百万级token的上下文窗口,相当于可完整解析两小时视频内容,并生成结构化文档或代码。
开发者生态建设同步推进,千问APP及PC端已完成模型接入,魔搭社区、HuggingFace平台开放模型下载,阿里云百炼平台提供API调用服务。性能评测显示,Qwen3.5-Plus在推理、编程、Agent智能体等基准测试中全面领先,视觉理解能力获多项权威评测第一,其以小胜大的技术路线为大规模模型发展提供全新思路。










