阿里旗下千问系列大模型迎来重要更新,正式开源Qwen3.5家族的4款小尺寸模型——Qwen3.5-0.8B、2B、4B和9B。此次发布的模型延续了Qwen3.5系列的技术优势,通过原生多模态训练架构和高效设计,在保持低资源占用的同时实现了性能突破,为不同场景的AI应用提供了多样化选择。
针对移动端和边缘计算场景,0.8B与2B模型以极致轻量化为核心优势。这两个模型体积小巧,推理速度显著提升,特别适合在智能手机、IoT设备等资源受限的终端部署。其低延迟特性还能满足实时交互需求,例如智能客服、语音助手等需要快速响应的应用场景。
4B模型则定位为轻量级智能体的核心基座。作为多模态基础模型,它在性能与资源消耗间实现了完美平衡,既能支撑复杂推理任务,又不会对硬件造成过高要求。该模型可广泛应用于智能助手、自动化流程等需要基础认知能力的场景,为开发轻量化AI应用提供了理想选择。
9B模型在紧凑结构中实现了越级性能表现。官方测试数据显示,其综合能力可媲美GPT-OSS-120B等更大规模模型,但显存占用仅为后者的十分之一左右。这种特性使其成为服务器端部署的高性价比方案,尤其适合需要处理复杂任务但硬件资源有限的中小企业和科研机构。
随着此次开源,Qwen3.5家族已形成完整的产品矩阵:从397B的超大模型、122B/35B/27B的中型模型,到此次发布的9B及以下小尺寸模型,覆盖了从云端到终端的全场景需求。所有模型均已在魔搭社区和Hugging Face平台开放下载,同时开源的还包括小尺寸模型的基座版本,为开发者提供更灵活的二次开发空间。这种全尺寸开源策略,将进一步推动AI技术在各行业的普及与创新应用。








