ITBear旗下自媒体矩阵:

阿里开源千问Qwen3.5-Plus:性能比肩Gemini 3Pro,推理效率与成本优势双突破

   时间:2026-02-16 20:18:44 来源:互联网编辑:快讯 IP:北京 发表评论无障碍通道
 

阿里巴巴近日宣布开源新一代大模型千问Qwen3.5-Plus,其性能已达到国际顶尖水平,可与Gemini 3Pro相媲美。这一成果标志着中国在开源大模型领域再次取得重大突破,成为全球开发者关注的焦点。该模型总参数达3970亿,但实际激活参数仅170亿,通过创新架构实现了以小博大的技术突破,不仅性能超越万亿参数的Qwen3-Max模型,还将部署显存占用降低60%,推理效率显著提升,最大推理吞吐量可达原模型的19倍。

在基准测试中,千问3.5-Plus展现出了卓越的综合能力。MMLU-Pro知识推理评测得分87.8分,超越GPT-5.2;博士级难题GPQA测评斩获88.4分,高于Claude 4.5;指令遵循IFBench以76.5分刷新纪录。在通用Agent评测BFCL-V4和搜索Agent评测Browsecomp等专项测试中,其表现均优于Gemini 3 Pro和GPT-5.2。更令人瞩目的是,该模型API价格每百万Token仅0.8元,仅为Gemini 3Pro的十八分之一,大幅降低了开发者的使用成本。

技术层面,千问3.5-Plus实现了从纯文本到原生多模态的代际跃迁。通过视觉和文本混合token预训练,模型新增了大量中英文、多语言、STEM和推理数据,使其具备更强的世界知识理解和推理能力。在多模态推理、通用视觉问答、文本识别、空间智能、视频理解等权威评测中均取得最佳成绩。特别是在视频理解方面,该模型支持长达2小时的视频直接输入,适用于长视频内容分析与摘要生成,为视频处理领域带来新的可能性。

视觉编程能力的突破是千问3.5-Plus的另一大亮点。该模型实现了视觉理解与代码能力的原生融合,结合图搜和生图工具,可将手绘界面草图直接转换为可用的前端代码,还能通过截图定位并修复UI问题。这种能力使视觉编程真正成为生产力工具,为开发者提供了更高效的工作方式。在学科解题、任务规划与物理空间推理等任务上,其表现优于千问专项模型Qwen3-VL,空间定位推理和带图推理能力显著增强。

模型效率的提升得益于对Transformer架构的创新突破。千问团队将自研的门控技术(曾获2025NeurIPS最佳论文)与线性注意力机制、稀疏混合专家MoE模型架构相结合,实现了397B总参数激活仅17B的极致效率。通过训练稳定优化和多token预测等技术,千问3.5-Plus在32K上下文场景中推理吞吐量提升8.6倍,在256K超长上下文情况下最大提升19倍,推理效率达到行业领先水平。

这些技术突破离不开阿里云AI基础设施的支持。千问3.5-Plus在文本、图像、视频等混合数据训练吞吐量上,几乎与纯文本基座模型持平,大幅降低了原生多模态训练的难度。通过精巧的FP8、FP32精度应用策略,模型在训练稳定扩展到数十万亿个token时,激活内存减少约50%,训练速度提升10%,有效节约了训练成本。

在应用层面,千问3.5-Plus已展现出强大的商业化潜力。基于该模型的AI购物Agent在春节期间6天内帮助用户完成1.2亿笔订单,实现了大规模真实世界任务执行和商业化验证。该Agent可自主操作手机与电脑,支持更多主流APP与指令,在PC端能处理复杂的多步骤操作,如跨应用数据整理和自动化流程执行。千问团队还构建了可扩展的Agent异步强化学习框架,端到端加速3到5倍,插件式智能体支持扩展至百万级规模。

自2023年开源以来,阿里已推出400多个千问模型,覆盖全尺寸、全模态,全球下载量突破10亿次,单月下载量超过DeepSeek、meta、OpenAI等企业2至8名的总和。开发者基于千问开发的衍生模型超过20万个,使其成为公认的全球第一开源模型。为满足不同国家开发者和企业的需求,千问3.5-Plus扩展支持201种语言,词表大小从15万扩展到25万,小语种编码效率最高提升60%。目前,千问APP和PC端已接入新模型,开发者可在魔搭社区和HuggingFace下载,或通过阿里云百炼获取API服务。阿里计划继续开源不同尺寸、功能的千问3.5系列模型,性能更强的旗舰模型Qwen3.5-Max也将于近期发布。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version