ITBear旗下自媒体矩阵:

Qwen3新升级领跑开源大模型,中国成竞争新舞台

   时间:2025-07-22 20:31:54 来源:量子位编辑:快讯团队 IP:北京 发表评论无障碍通道
 

近日,中国开源大模型领域迎来了新的进展。在Kimi K2风头正劲之时,Qwen3宣布了最新升级,其235B参数规模虽仅为Kimi K2 1T的四分之一,但在基准测试中的表现却超越了后者。

据悉,Qwen官方此次决定摒弃混合思维模式,转而分别训练Instruct和Thinking模型。新发布的Qwen3-235B-A22B-2507版本目前仅支持非思考模式,且网页版已上线使用,但通义APP尚未更新。

尽管Qwen官方表示这只是“一个小更新”,但新模型的改进之处却不容小觑。它显著增强了通用能力,包括指令遵循、逻辑推理、文本理解、数学、科学、编码和工具使用等方面。同时,多语言长尾知识的覆盖范围也大幅增加,更符合用户在主观和开放式任务中的偏好,能够提供更有帮助的响应和更高质量的文本生成。

尤其新模型对256K长上下文的理解能力得到了显著增强。在官方发布的基准测试中,相较于上一版本,新模型在AIME25上的准确率从24.7%飙升至70.3%,显示出卓越的数学推理能力。与Kimi K2和DeepSeek-V3相比,Qwen3新模型的能力也略胜一筹。

为了提高用户体验,Qwen官方还推荐了最佳设置。新模型的发布迅速收获了一众好评,有网友认为Qwen在中等规模的语言模型中已经处于领先地位,甚至开启了新的架构范式。

就在Qwen3新模型发布的前几天,NVIDIA也宣称发布了新的SOTA开源模型OpenReasoning-Nemotron。然而,该模型实际上是基于Qwen-2.5在Deepseek R1数据上微调而来的。随着Qwen3的更新和大招的预告,以及Llama转向闭源的消息传出,开源基础大模型的竞争正逐渐进入中国时间。

此前,DeepSeek曾占据王座,随后被Kimi K2取代。然而,Kimi K2坐稳没几天,就迎来了Qwen的挑战。如今,中国开源大模型领域的竞争愈发激烈,各大模型纷纷升级迭代,力求在市场中占据一席之地。

Qwen3新版本的体验链接已开放,感兴趣的用户可前往https://chat.qwen.ai/进行体验。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version