月之暗面核心团队近日在海外社交平台Reddit举办了一场互动问答活动,针对其最新发布的Kimi K2 Thinking模型展开深入交流。联合创始人兼CEO杨植麟带领技术团队直面海外开发者提出的多个尖锐问题,涉及模型训练成本、性能优化方向及开源策略等核心议题。
针对网络流传的"K2模型训练成本仅460万美元"说法,杨植麟明确否认该数据真实性。他解释称训练成本包含大量研究实验投入,难以简单量化。团队正研发K2的视觉-语言版本,同时透露混合线性注意力架构Kimi Linear的核心模块可能应用于下一代模型K3。当被问及K3发布时间时,杨植麟以幽默方式回应:"在Sam的万亿美元数据中心建成前"。
关于模型性能争议,技术团队给出详细技术解析。针对推理时间较长的问题,杨植麟承认当前版本优先保障绝对性能,后续将通过奖励机制优化token使用效率。对于HLE基准测试高分与实际体验差异,他表示团队正在提升模型通用能力,未来将改善长思维链与实际场景的适配度。算法负责人周昕宇补充说明,KDA混合架构在预训练和强化学习阶段均展现出显著优势,其对比完整MLA架构具有更高效率和更低成本。
在模型应用层面,联合创始人吴育昕回应了关于"封禁"的担忧。他指出开源策略有助于消除企业部署顾虑,虽然部分使用限制超出控制范围,但技术透明化能建立长期信任。针对上下文窗口扩展需求,团队承认256K长度对大型代码库存在局限,未来版本将考虑提升容量,不过此前尝试百万token窗口时面临服务成本过高挑战。
关于产品形态规划,周昕宇明确否定了开发AI浏览器的可能性,强调应专注模型核心能力提升而非叠加外壳。杨植麟透露kimi.com将持续迭代新功能,同时已推出480亿参数的Kimi-Linear小型模型满足不同场景需求。针对API计费模式争议,团队解释当前按请求次数收费更符合企业成本结构,但承诺将探索更优解决方案。
这场跨国技术对话引发海外开发者热烈反响,提问覆盖模型架构、训练细节到商业策略等20余个维度。中国AI团队展现的技术深度与开放态度,折射出全球开发者对中国创新实力的重新认知。多个技术细节的披露,也为国际AI社区提供了具有参考价值的实践样本。











