ITBear旗下自媒体矩阵:

小红书开源文本大模型dots.llm1,1420亿参数量引领AI新潮流!

   时间:2025-06-10 17:27:25 来源:ITBEAR编辑:快讯团队 IP:北京 发表评论无障碍通道

小红书近期在人工智能领域迈出了重要一步,其hi lab团队正式揭晓了自主研发的开源文本大模型——dots.llm1。这一创新成果凭借其庞大的参数规模和卓越性能,迅速吸引了行业内外的高度关注。

dots.llm1作为一款混合专家(MoE)语言模型,参数总量达到了惊人的1420亿,其中有效激活参数为140亿。该模型历经精心训练,使用了高达11.2TB的高质量数据,其性能足以与业界领先的阿里巴巴Qwen2.5-72B模型相抗衡。这一成就不仅体现在文本生成的精准度和流畅性上,更在于dots.llm1能够应对更为复杂的自然语言处理任务。

尤为dots.llm1的预训练全程未采用任何合成数据,所有训练素材均源自真实场景中的高质量文本。这一做法使得dots.llm1在理解人类语言的微妙之处和自然表达方面更具优势,从而能够为用户提供更加真实、自然的交互体验。

小红书此次决定开源dots.llm1,不仅体现了其在人工智能领域的持续深耕和雄心壮志,也彰显了其对于技术创新的坚定承诺。开源举措不仅有助于增强社区的互动和贡献,更为广大开发者提供了一个宝贵的平台,使他们能够深入探索并应用这一强大的技术工具。

作为以内容分享和社交为核心的平台,小红书始终致力于提升用户体验和技术实力。dots.llm1的推出,正是小红书在智能化服务领域迈出的重要一步,旨在为用户提供更加智能化的服务体验。同时,小红书也希望借此机会激励更多开发者投身到人工智能的研究与实践中,共同推动技术的进步与发展。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  RSS订阅  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version