ITBear旗下自媒体矩阵:

小红书自研1420亿参数大模型dots.llm1,性能直追阿里Qwen 3

   时间:2025-06-10 12:21:29 来源:ITBEAR编辑:快讯团队 发表评论无障碍通道

近日,小红书在人工智能领域迈出了重要一步,正式对外宣布其自主研发的dots.llm1大模型已成功开源。这款大模型不仅拥有令人瞩目的1420亿参数混合专家模型(MoE)架构,还配备了高达11.2万亿token的高质量训练数据,彰显了小红书在技术研发上的深厚实力。

dots.llm1模型在多项性能测试中展现出了与阿里Qwen 3模型不相上下的实力,特别是在中文任务处理方面,其表现尤为突出。在权威的CLUEWSC评测中,dots.llm1模型取得了92.6分的优异成绩,这一分数不仅证明了模型在中文语言理解方面的强大能力,也将其推至了业界的领先地位。

为了提升模型的计算效率,小红书的研发团队采用了多项创新技术。其中,Interleaved 1F1B with AlltoAll overlap和Grouped GEMM优化等技术的引入,显著提高了模型的运算速度和性能。这些技术优化不仅确保了模型在处理大规模数据时的高效性,也为后续的模型迭代和优化奠定了坚实的基础。

dots.llm1模型的开源,是小红书对技术开放和共享理念的践行。小红书表示,希望通过此举推动人工智能技术的普及和发展,为更多的开发者提供优质的模型资源和研究平台。同时,这也展示了小红书在技术创新和生态建设方面的坚定决心和长远规划。

据了解,小红书的hi lab团队将继续致力于dots.llm1模型的优化和完善工作。未来,团队将探索更稀疏的混合专家(MoE)层等先进技术,以进一步提升模型的性能和适用性。小红书还计划为社区贡献更多全模态大模型资源,为人工智能技术的多元化应用和发展贡献力量。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version