商汤科技与南洋理工大学S-Lab联合研发的多模态模型架构NEO正式发布,并同步开源2B与9B两种参数规模的模型。这一突破性成果为多模态大模型领域带来全新范式,其核心架构通过底层创新实现了视觉与语言模态的深度融合,在数据效率、性能表现及部署成本等关键指标上达到行业领先水平。
传统多模态模型普遍采用"视觉编码器+投影器+语言模型"的模块化设计,这种基于大语言模型扩展的方案虽能处理图像输入,但本质仍以语言为中心。商汤科技指出,此类架构存在三大缺陷:数据层面浅层融合导致学习效率低下,图像细节捕捉能力受限,复杂空间结构理解困难。例如在需要精准识别物体位置关系或动态场景的场景中,传统模型往往表现乏力。
NEO架构通过三项底层创新实现模态融合的质变。其独创的原生图块嵌入技术(Native Patch Embedding)摒弃离散图像分词器,通过连续映射机制从像素级构建视觉表征,使模型能捕捉到比传统方法精细4倍的图像细节。在位置编码方面,原生三维旋转位置编码(Native-RoPE)创新性地解耦时空频率分配,为视觉模态分配高频信号、语言模态分配低频信号,这种设计使模型天然具备处理视频流和跨帧信息的能力。
注意力机制层面,原生多头注意力(Native Multi-Head Attention)突破传统框架,在统一架构中同时实现文本的自回归注意力与视觉的双向注意力。这种设计使模型在处理图文混合任务时,空间关联利用率提升37%,特别在需要理解物体遮挡关系或动态轨迹的场景中表现突出。配合Pre-Buffer&Post-LLM双阶段训练策略,模型在保持语言推理能力完整性的同时,视觉感知能力实现指数级增长。
实测数据显示,NEO架构展现出显著优势:在数据效率方面,仅需3.9亿图像文本样本即可达到顶尖视觉理解水平,数据需求量仅为同类模型的1/10;性能测试中,在MMMU、MMB等五大权威基准测试中均取得最优成绩;部署成本方面,0.6B-8B参数规模的模型在边缘设备上的推理速度提升2.3倍,特别适合移动端和物联网设备部署。商汤已开放基于NEO架构的模型下载,开发者可通过开源社区获取完整代码与训练框架。









