印度AI实验室Sarvam在近日举办的人工智能影响力峰会上,正式推出两款自主研发的最新一代MoE架构大语言模型。这两款模型以全栈自研技术打造,标志着印度在生成式AI领域取得重要突破。研发团队透露,模型代码和权重将于近期在Hugging Face平台开源,配套的API接口与可视化仪表盘功能也在紧锣密鼓筹备中。
针对不同应用场景,两款模型采用差异化设计策略。轻量级型号采用300亿参数激活、10亿参数总量的精简架构,预训练数据规模达16万亿token,支持32K上下文窗口,特别优化了实时交互场景的响应速度。旗舰型号则配备1050亿参数激活、90亿参数总量的超大规模架构,支持128K超长上下文窗口,能够处理复杂推理任务和跨领域知识整合需求。
在性能评估方面,Sarvam实验室公布的测试数据显示,旗舰模型在印度本土语言基准测试中全面超越谷歌Gemini 2.5 Flash等国际主流模型。针对多语言混合场景的跨模态任务,该模型在多数评估指标上领先DeepSeek R1,在特定垂直领域甚至达到Gemini Flash的1.3倍性能。研发团队强调,模型特别针对南亚语言特征进行优化,在方言处理和语境理解方面具有独特优势。










