ITBear旗下自媒体矩阵:

阿里通义千问Qwen3-4B小模型发布,性能直逼中规模,手机端部署无忧

   时间:2025-08-07 19:28:13 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

阿里通义千问最新发布的Qwen3-4B模型系列中的两位新成员——Qwen3-4B-Instruct-2507与Qwen3-4B-Thinking-2507,现已在魔搭社区及HuggingFace平台正式对外开源。这一举措标志着这两款模型将更广泛地服务于开发者与研究者。

在非推理领域,Qwen3-4B-Instruct-2507展现出了卓越的性能,不仅超越了商业闭源的小尺寸模型GPT4.1-Nano,且在性能上逼近了中等规模的Qwen3-30B-A3B(非思考版)。而在推理领域,Qwen3-4B-Thinking-2507的表现同样亮眼,其推理能力与Qwen3-30B-A3B(思考版)不相上下。

2507版本的Qwen3-4B模型在端侧硬件部署上具有显著优势,尤其适合在手机等移动设备上运行,这将极大地提升移动设备在AI应用上的表现。

Qwen3-4B-Instruct-2507模型在通用能力上实现了质的飞跃,不仅超越了商业闭源的小尺寸模型GPT-4.1-nano,其性能更是逼近了Qwen3-30B-A3B(非思考版)。该模型还涵盖了更多语言的长尾知识,并在主观及开放性任务中更好地与人类偏好对齐,从而能够给出更加贴近用户需求的回答。更令人惊喜的是,其上下文理解能力已扩展至256K,使得小模型也能轻松应对长文本处理。

在推理能力方面,Qwen3-4B-Thinking-2507模型同样取得了显著进步,AIME25得分高达81.3分,其推理表现与Qwen3-30B-Thinking模型难分伯仲。特别是在AIME25测评中,该模型在数学能力上大放异彩,以4B的参数量获得了如此高分。同时,其Agent分数也极为突出,在相关评测中均超越了更大尺寸的Qwen3-30B-Thinking模型。得益于256K tokens的上下文理解能力,该模型能够支持更复杂的文档分析、长篇内容生成以及跨段落推理等场景,为用户提供更为丰富的使用体验。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version