ITBear旗下自媒体矩阵:

科大讯飞讯飞星火X1.5发布:MoE架构助力,推理效率较X1版本翻倍提升

   时间:2026-01-05 07:58:00 来源:ITBEAR编辑:快讯 IP:北京 发表评论无障碍通道
 

在投资者互动交流平台上,科大讯飞针对投资者关于星火大模型技术进展的提问作出详细回应。公司透露,2025年11月6日正式推出的深度推理大模型讯飞星火X1.5,在国产化算力平台上实现了关键技术突破,成功攻克混合专家(MoE)模型全链路训练效率难题。

据介绍,该版本采用MoE架构设计,在模型参数规模缩减一半的情况下,仍能达到国际领先水平。相较于前代X1版本,新模型在推理效率方面实现翻倍提升,语言理解、文本生成、知识问答、逻辑推理、数学运算及代码编写六大核心能力均达到国际主流大模型水准。其中数学能力持续保持行业领先地位,展现出显著的技术优势。

技术团队特别强调,此次突破得益于全国产化算力平台的深度优化,通过创新训练方法解决了MoE模型在分布式计算中的效率瓶颈。这种架构设计不仅降低了模型部署成本,更在保证性能的前提下显著提升了推理速度,为大规模商业化应用奠定了技术基础。目前该模型已进入多场景测试阶段,后续将根据反馈持续迭代升级。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version