通义千问宣布Qwen3-4B系列模型的发布。这一新模型以其小巧的体积和强大的性能,为人工智能的端侧部署带来了新的可能性。
在前两周相继更新了Qwen3-235B-A22B和Qwen3-30B-A3B的Instruct/Thinking「2507」版本后,研发团队再次发力,推出了更小尺寸的Qwen3-4B-Instruct-2507和Qwen3-4B-Thinking-2507模型。这些新模型在性能上取得了显著提升,特别是在非推理领域,Qwen3-4B-Instruct-2507全面超越了闭源的GPT4.1-Nano,而在推理领域,Qwen3-4B-Thinking-2507的表现更是令人瞩目,其推理能力可与中等规模的Qwen3-30B-A3B(thinking)相媲美。
研发团队坚信,小型语言模型(SLM)对代理人工智能(Agentic AI)的发展具有极其重要的价值。此次发布的「2507」版本Qwen3-4B模型,不仅体积小,性能强劲,而且对手机等端侧硬件部署极为友好。目前,新模型已在魔搭社区和Hugging Face正式开源,吸引了众多开发者的关注和体验。
Qwen3-4B-Instruct-2507的通用能力得到了显著提升,其表现超越了商业闭源的小尺寸模型GPT-4.1-nano,甚至与中等规模的Qwen3-30B-A3B(non-thinking)性能接近。该模型还覆盖了更多语言的长尾知识,在主观和开放性任务中增强了人类偏好对齐,能够提供更符合人们需求的答复。更令人惊喜的是,其上下文理解能力扩展至256K,即使是小模型,也能轻松处理长文本。
与此同时,Qwen3-4B-Thinking-2507的推理能力也大幅增强。在聚焦数学能力的AIME25测评中,该模型以4B参数量斩获了81.3分的惊人成绩,这一表现足以媲美中等模型Qwen3-30B-Thinking。其通用能力也显著提升,Agent分数更是超越了更大尺寸的Qwen3-30B-Thinking模型。同样具备256K tokens的上下文理解能力,支持更复杂的文档分析、长篇内容生成以及跨段落推理等场景。
随着Qwen3-4B系列模型的发布,人工智能在端侧应用的前景变得更加广阔。相信在不久的将来,我们会看到更多基于这一模型的创新应用,为人们的生活和工作带来更多便利。