阿里巴巴在开源领域再推重磅力作,全新一代大模型千问Qwen3.5-Plus正式亮相。这款模型凭借卓越性能,在开源模型领域脱颖而出,与Gemini 3 Pro相比毫不逊色,甚至在多项关键指标上实现超越,成为全球开源模型中的佼佼者。
千问3.5在模型架构上进行了全面革新。此次发布的Qwen3.5-Plus版本,总参数规模达3970亿,但激活参数仅170亿,实现了以小博大的突破。其性能不仅超越了拥有万亿参数的Qwen3-Max模型,而且在部署方面优势显著,显存占用降低60%,推理效率大幅提升,最大推理吞吐量可提升至原来的19倍。在价格方面,Qwen3.5-Plus的API每百万Token仅需0.8元,仅为Gemini 3 Pro的1/18,为开发者提供了更具性价比的选择。
与前代千问大语言模型相比,千问3.5实现了从纯文本模型到原生多模态模型的重大跨越。千问3主要基于纯文本Tokens进行预训练,而千问3.5则采用视觉和文本混合token预训练方式,并大幅增加了中英文、多语言、STEM和推理等数据。这使得模型如同睁开“眼睛”,能够学习到更丰富的世界知识和推理逻辑。尽管参数量不到Qwen3-Max的40%,但千问3.5在推理、编程、Agent智能体等全方位基准评估中均表现出色。例如,在MMLU-Pro知识推理评测中得分87.8分,超越GPT-5.2;在博士级难题GPQA测评中斩获88.4分,高于Claude 4.5;在指令遵循IFBench以76.5分刷新所有模型纪录;在通用Agent评测BFCL-V4、搜索Agent评测Browsecomp等基准中,表现均优于Gemini 3 Pro和GPT-5.2。
原生多模态训练为千问3.5带来了视觉能力的显著提升。在多模态推理(MathVison)、通用视觉问答VQA(RealWorldQA)、文本识别和文件理解(CC_OCR)、空间智能(RefCOCO-avg)、视频理解(MLVU)等众多权威评测中,千问3.5均取得最佳成绩。在学科解题、任务规划与物理空间推理等任务上,其表现优于千问专项模型Qwen3-VL,空间定位推理和带图推理能力大幅增强,推理分析更加精细精准。在视频理解方面,千问3.5支持长达2小时(1M token上下文)的视频直接输入,适用于长视频内容分析与摘要生成。同时,该模型实现了视觉理解与代码能力的原生融合,结合图搜和生图工具,可将手绘界面草图直接转换为可用的前端代码,一张截图就能定位并修复UI问题,让视觉编程真正成为生产力工具。
千问3.5的原生多模态训练得益于阿里云AI基础设施的高效支持。通过一系列基础技术创新,千问3.5在文本、图像、视频等混合数据训练吞吐量上,几乎与纯文本基座模型训练持平,大大降低了原生多模态训练的难度。同时,通过设计精巧的FP8、FP32精度应用策略,在训练稳定扩展到数十万亿个token时,激活内存减少约50%,训练速度提升10%,进一步节约了模型训练成本,提高了训练效率。
在Agent技术方面,千问3.5也取得了新突破。该模型可自主操作手机与电脑,高效完成日常任务。在移动端,支持更多主流APP与指令;在PC端,可处理更复杂的多步骤操作,如跨应用数据整理、自动化流程执行等,显著提升了操作效率。千问团队构建了一个可扩展的Agent异步强化学习框架,端到端加速3到5倍,并将插件式智能体Agent支持扩展至百万级规模。
目前,千问APP、PC端已第一时间接入Qwen3.5-Plus模型。开发者可在魔搭社区和HuggingFace下载新模型,或通过阿里云百炼直接获取API服务。据悉,阿里后续还将继续开源不同尺寸、不同功能的千问3.5系列模型,性能更强的旗舰模型Qwen3.5-Max也即将发布。










