阿里旗下千问团队近日宣布,正式开源Qwen3.5系列中的四款小尺寸模型——Qwen3.5-0.8B、2B、4B及9B。这组模型延续了Qwen3.5家族的技术优势,通过原生多模态训练框架与新型架构设计,在保持低资源占用的同时实现了性能突破,可覆盖从边缘设备到云端服务的多样化场景需求。
针对不同应用场景,四款模型呈现差异化定位。其中0.8B与2B版本以极致轻量化为核心,模型体积较同类产品缩减40%以上,推理速度提升2-3倍,特别适用于智能手机、智能家居等移动端设备,以及需要实时响应的工业物联网场景。经实测,2B模型在ARM架构芯片上的单次推理耗时仅需8毫秒,满足自动驾驶辅助系统的低延时要求。
4B版本作为智能体开发专用基座,首次在轻量级模型中集成多模态处理能力。该模型支持文本、图像、语音的联合理解与生成,在Agent开发测试中展现出接近专业模型的决策准确率。开发者可基于该模型快速构建客服机器人、教育辅导等场景的智能体,其资源消耗仅为传统方案的1/5。
9B模型在紧凑结构中实现了性能跃迁,测试数据显示其综合表现与GPT-oss-120B相当,但显存占用降低78%。该特性使其成为服务器端部署的优选方案,尤其在医疗问诊、法律咨询等需要专业领域知识的场景中,既能保证推理质量,又可控制硬件成本。某三甲医院试点应用显示,9B模型在医学文献分析任务中的准确率达到92.3%。
此次开源同步释放了模型基座版本,包含预训练权重与微调工具链。开发者可在魔搭社区与Hugging Face平台获取完整资源包,社区还提供30余个行业适配方案。随着四款小尺寸模型的加入,Qwen3.5家族已形成覆盖0.8B至397B参数的完整矩阵,其中中型尺寸的122B、35B、27B版本此前已应用于金融风控、科研计算等领域。
技术文档显示,该系列模型采用动态稀疏激活技术,可根据任务复杂度自动调整计算资源分配。在处理简单查询时,9B模型的实际算力消耗可降至理论峰值的35%,这种弹性设计显著提升了资源利用率。目前已有超过200家企业启动模型迁移测试,预计年内将形成覆盖10个行业的标准化解决方案。
















