阿里云近日宣布推出全新千问旗舰推理模型Qwen3-Max-Thinking,该模型以超万亿级参数规模(1T)和36T Tokens的预训练数据量,成为阿里迄今为止性能最强的推理模型。据介绍,这款模型通过参数规模、强化学习与计算能力的协同扩展,在多项国际基准测试中刷新了行业纪录,标志着国产大模型在复杂推理领域取得重要突破。
技术层面,Qwen3-Max-Thinking创新采用测试时扩展(Test-time Scaling)机制,突破传统推理模型依赖并行路径重复计算的局限。该机制通过"经验提取"技术对历史推理结果进行智能提炼,支持多轮自我迭代优化,在保持相同上下文条件下实现更高效的计算资源利用。实验数据显示,这一创新使模型在处理复杂任务时的推理效率显著提升,同时降低了计算成本。
在权威测试平台"人类最后的测试"(HLE)中,该模型以58.3分的成绩领先同类产品,较GPT-5.2-Thinking的45.5分和Gemini 3 Pro的45.8分形成明显优势。测试场景涵盖工具调用、任务执行等复杂推理能力,充分验证了模型在真实应用场景中的实用性。阿里云透露,模型特别强化了原生Agent能力,支持在对话过程中自主调用外部工具完成具体任务。
开发者和用户可通过多渠道体验新模型:QwenChat平台已开放免费试用接口,企业客户可通过阿里云百炼平台获取API服务,PC端和网页端同步上线试用版本。千问APP即将完成模型接入更新,届时所有用户均可零门槛体验这款顶级推理模型。这种多终端覆盖的策略,体现了阿里推动AI技术普惠化的战略布局。
项目负责人吴嘉在技术解读中强调,真正的AI突破不应局限于对话交互。这位2010年加入阿里的浙江大学硕士毕业生指出:"优秀的AI系统需要具备自主行动能力,能够理解任务需求、调用合适工具并交付完整结果。"作为阿里云资深技术专家转任千问C端事业群总裁,吴嘉带领团队持续探索大模型的应用边界,此次发布的成果正是其技术理念的集中体现。
据悉,Qwen3-Max-Thinking的研发团队在模型架构设计阶段就充分考虑了产业落地需求。通过优化推理计算路径,模型在保持高性能的同时降低了硬件要求,为中小企业应用先进AI技术提供了可行方案。这种技术普惠性或将推动智能客服、自动化办公、工业质检等领域发生深刻变革。










