在全球大模型技术竞争愈发激烈的背景下,阿里云通义千问团队以更开放的模型矩阵布局展现技术实力。10月22日,该团队宣布推出Qwen3-VL家族两款全新密集型模型——2B与32B版本,至此其开源模型总数已达24个,形成覆盖轻量级到超大规模的完整技术生态链。
新发布的2B与32B模型精准填补了现有产品线的关键参数档位,使Qwen3-VL家族形成四款密集型模型(2B/4B/8B/32B)与两款混合专家架构(MoE)模型(30B-A3B/235B-A22B)的完整矩阵。该体系参数规模跨越20亿至2350亿量级,可全面适配从边缘设备部署到云端超大规模推理的多样化场景需求。所有模型均提供指令微调(Instruct)与推理增强(Thinking)双版本,开发者可根据具体任务特性灵活选择。
为平衡模型性能与计算效率,团队同步推出12款FP8量化版本模型。这些轻量化变体在保持原有精度的同时,大幅降低显存占用和推理延迟,使高性能多模态AI技术能够更快速地落地于实际业务场景。据技术文档显示,量化后的模型在视觉问答、文档理解等任务中仍保持90%以上的原始精度。
目前,Qwen3-VL家族所有开源权重模型已通过魔搭(ModelScope)社区与Hugging Face平台全面开放下载,并明确支持商业用途。这种零门槛的技术共享策略,不仅降低了企业获取前沿多模态能力的成本,更为学术研究和创业项目提供了可直接调用的技术基础设施。据统计,自首次开源以来,该系列模型累计下载量已突破千万次。
在行业闭源趋势加剧的当下,阿里云选择以开源生态构建差异化竞争力。Qwen3-VL的持续迭代不仅彰显技术积累深度,更体现了对开放协作理念的坚持。随着模型矩阵的不断完善,通义千问正从技术可用性向易用性、实用性深度演进,推动AI技术从实验室走向金融、医疗、制造等垂直领域的真实业务场景。