小米公司今日正式推出自研的开源MoE(混合专家)模型——Xiaomi MiMo-V2-Flash,该模型专为智能体AI设计,以极致推理效率为核心目标。模型总参数量达3090亿(309B),但通过动态激活机制将活跃参数量控制在150亿(15B)水平,在保持高性能的同时显著降低了计算资源消耗。
技术架构方面,该模型创新性地采用Hybrid注意力机制,结合多层MTP推理加速技术,在多个智能体评估基准测试中跻身全球开源模型前列。特别值得关注的是其代码生成能力,经实测已超越所有现有开源模型,达到与行业标杆闭源模型Claude 4.5 Sonnet相当的水平,而推理成本仅为后者的2.5%,生成速度提升达200%。
为方便开发者体验,小米同步上线了在线交互平台Xiaomi MiMO Studio(官网地址已移除)。该平台支持深度语义搜索与实时联网检索功能,用户可通过自然语言交互直接测试模型性能。平台界面设计简洁,提供多场景对话模板,覆盖技术咨询、内容创作等实际应用场景。
在开源策略上,小米采取完全开放模式,不仅模型权重文件采用MIT许可协议开源,配套的推理代码库也同步公开。商业应用方面,该模型提供API接口服务,定价体系为输入每百万tokens 0.1美元,输出每百万tokens 0.3美元,目前处于限时免费测试阶段。完整技术文档与模型下载地址已在小米开发者平台公布。





