科大讯飞今日宣布,其全新研发的星火X2-Flash大模型正式上线,并同步开放API接口供开发者使用。该模型采用先进的MoE混合专家架构,总参数量达300亿,最大支持256K上下文窗口,在智能体交互、代码生成等核心能力上实现显著突破。
基于华为昇腾910B国产算力集群训练的星火X2-Flash,在技术架构上实现多项创新。通过将DSA稀疏注意力机制与MTP多token预测技术深度融合,模型训练效率较同规模A800集群提升350%,成功解决国产芯片在长文本训练中的性能瓶颈。实测数据显示,在深度研究报告生成、技能调用管理等复杂任务中,其表现已接近万亿参数级模型水平,而token消耗量仅为主流大模型的30%。
在智能体开发场景中,该模型展现出显著优势。以视频生成技能开发为例,开发者输入需求后,模型可自动生成包含技能架构、核心功能及使用案例的完整方案。AstronClaw团队测试表明,在智能体长交互场景下,采样推理效率较传统架构提升最高达200%,有效缓解了强化学习训练中的算力瓶颈问题。
兼容性方面,星火X2-Flash已完成与OpenClaw、Claude Code等主流Agent框架的深度适配。Loomy平台作为首批接入方,已基于该模型构建出多款复杂智能体应用。科大讯飞技术团队透露,通过算子优化与分布式训练策略创新,模型在国产芯片上的运行稳定性得到显著提升。
目前开发者可通过科大讯飞开放平台申请模型API调用权限。技术文档显示,该接口支持灵活的上下文长度配置,并提供多粒度的token消耗优化方案,特别适合需要处理长文本、复杂逻辑的智能体开发场景。







