ITBear旗下自媒体矩阵:

硅基流动引入蚂蚁百灵Ling-flash-2.0:百亿参数模型实现高效推理与低成本应用

   时间:2025-09-18 13:42:00 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道
 

硅基流动大模型服务平台近日迎来重要更新——蚂蚁集团百灵团队研发的Ling-flash-2.0正式入驻该平台,成为其第130个对外开放的模型资源。这款基于混合专家架构(MoE)的语言模型,凭借100亿总参数与仅6.1亿激活参数的轻量化设计,在保持高效计算的同时实现了40亿参数Dense模型的性能水准。

技术团队通过20TB级高质量语料的预训练、多阶段强化学习及监督微调,使Ling-flash-2.0在复杂推理、代码生成和前端开发等场景中表现突出。其128K的上下文窗口支持能力,可处理相当于300页文档的文本内容,为长文档分析、多轮对话等场景提供技术保障。在输出效率方面,该模型通过1/32激活比例的MoE架构优化,配合H20硬件部署,输出速度突破每秒200Token,较传统36B Dense模型提升超300%。

价格策略方面,平台延续亲民路线:输入定价每百万Token仅需1元,输出定价4元,并针对新用户推出差异化赠金方案——国内用户可获14元体验金,国际用户则享受1美元等值额度。这种定价模式显著降低了AI技术的使用门槛,尤其适合中小型开发团队进行技术验证。

在性能对比测试中,Ling-flash-2.0展现出独特优势。相较于同参数量级的Qwen3-32B-Non-Thinking、Seed-OSS-36B-Instruct等Dense模型,以及Hunyuan-A13B-Instruct、GPT-OSS-120B/low等MoE模型,该模型在数学推理、代码纠错等任务中准确率提升12%-18%。在创意写作场景中,其文本连贯性和信息密度指标也优于多数竞品。

作为一站式AI开发平台,硅基流动目前提供涵盖文本、图像、音频、视频等领域的多元模型服务。开发者可通过统一API接口自由组合不同模型,实现多模态任务的高效协同。平台内置的模型对比工具支持实时性能评估,帮助开发者快速定位最适合业务场景的技术方案。

技术文档显示,Ling-flash-2.0的架构创新体现在多个层面:通过动态路由机制实现专家模块的高效协作,采用渐进式激活策略平衡计算效率与模型容量,并在注意力机制中引入稀疏化设计。这些优化使模型在保持低延迟的同时,具备处理复杂逻辑任务的能力。

目前,开发者可通过以下渠道体验Ling-flash-2.0:国内用户访问https://cloud.siliconflow.cn/models,国际用户访问https://cloud.siliconflow.com/models。平台提供完整的开发文档、在线调试工具及技术社区支持,助力开发者快速实现AI应用落地。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version