在世界人工智能大会的热闹氛围中,一家上海的AI创业公司RockAI吸引了众多目光。这家企业正以一股不可忽视的力量,向中国乃至全球的AI主流Transformer架构发起挑战。
展会上,一台机器狗的表演尤为引人注目。它仅仅观察了观众用右手打招呼的手势,不到30秒的时间,便完美复刻了这一动作。令人惊讶的是,这一整个过程是在完全离线的情况下完成的,无需云端支持。这正是RockAI展台所展示的技术成果。
RockAI在2024年初推出了基于非Transformer架构的Yan 1.0大模型,随后又发布了Yan 1.3群体智能单元大模型,支持多模态理解,并成功在树莓派等低端硬件上实现部署。而今,最新的Yan 2.0 Preview模型更是引入了记忆和自主学习能力,使得机器狗等终端设备能够具备更为智能的交互能力。
Yan 2.0 Preview模型尽管只有3B参数规模,但在多个评测榜单上的表现已经超越了参数规模更大的Llama 3、Qwen 3和Gemma 3等模型。RockAI的CEO刘凡平表示,Yan架构打破了传统大模型的学习模式,不再依赖先预训练再微调的方式,而是在物理世界中直接学习和交互。
在WAIC展会上,基于Yan 2.0 Preview的灵巧手展示了自主玩推箱子游戏的能力。它会根据具体情况分析、评估,最终将箱子放置到正确位置。这一表现充分展示了Yan架构在多模态理解和端到端生成能力上的优势。
Yan架构的核心创新在于其引入了可微的记忆模块,实现了信息的存储、检索和遗忘。这一设计使得模型具备了原生记忆能力,能够在长期交互中实现知识更新和个性化演进。这对于迈向通用人工智能具有重要意义,因为它不仅能让模型记住用户信息、偏好,还能在持续交互中不断优化和提升。
RockAI的CTO杨华认为,赋予模型自主学习能力可能是未来的技术壁垒,也是探索AGI(通用人工智能)的重要阶段。当前,行业主流的大模型虽然在对话中表现出色,但缺乏真正的原生记忆能力,通常依赖外挂机制如RAG、长上下文窗口或外部数据库来模拟记忆。然而,这种方式无法实现类似人类的连续性和长期记忆。
RockAI的使命是“让世界上每一台设备拥有自己的智能”,这一愿景在Yan系列模型的发布和落地中得到了体现。Yan 2.0 Preview的离线部署能力使得终端设备具备了智能,机器狗能够在现场精准学习并复刻动作,记住每位观众的偏好和互动风格。这一技术的突破,让智能重新定义了硬件,硬件的使用周期从一次性交付变为了拥有长期记忆,能够随用户一起成长。
RockAI自2023年6月成立以来,就坚定地走上了非Transformer架构的道路。面对诸多行业质疑和技术难点,他们不断突破,最终在端侧模型部署上取得了显著成果。Yan系列模型已经成功落地在某品牌PC上,实现了集成大模型能力的会议助手等多项功能。
RockAI的未来愿景是构建“群体智能”,即一个由多个模型和终端组成的“机器社会”,实现群策群力与高度协作。在这个体系中,每一个智能终端不仅具备环境感知能力,还能与物理世界实时交互、自主学习与进化,共同构成一个有机协同、持续成长的智能群体。
RockAI的探索不仅是一次技术范式的突破,更是对未来人机关系的深刻思考。他们相信,智能新时代即将到来,每一个设备都将能够思考、协作和成长。