在杭州举办的一场新品发布会上,宸境科技以一场别开生面的展示,向行业宣告了具身智能领域的一次重大突破。不同于以往机器人发布会上常见的炫技表演,宸境科技此次聚焦于具身智能的“基础设施”建设,推出了“LooperRobotics”品牌体系及其全栈技术矩阵,包括Insight自主空间智能相机、TinyNav神经导航算法库和RoboSpatial空间感知软件平台,为机器人感知技术带来了从“定制化”到“通用化”的转变。
宸境科技此次发布的Insight自主空间智能相机,以其独特的设计理念颠覆了传统摄像头的设计常规。不同于行业普遍采用的水平排列摄像头,宸境科技将三个摄像头垂直排列,实现了惊人的188°视场角。这一设计灵感源自对机器人实际落地场景的深刻洞察。在大型展会等拥挤环境中,传统横向摄像头易受人群干扰,导致机器人“失明”。而Insight相机通过捕捉头顶和脚下的固定参照物,确保了机器人在复杂环境中的稳定定位,有效解决了这一难题。
除了视角上的创新,Insight相机在抗震性能上也实现了重大突破。针对足式机器人在高动态运动中产生的剧烈震动,宸境科技将相机的抗震能力提升至24g,远超行业平均水平。这一改进使得机器人能够在更恶劣的环境下稳定工作,从“温室花朵”进化为“工业器官”,为机器人在各种复杂场景中的应用提供了有力保障。
在数据处理方面,宸境科技同样展现了其前瞻性的技术视野。Insight相机内置了拥有10TOPS强劲AI算力的地瓜机器人智能计算芯片,实现了算力内移。这一设计不仅解决了传统机器视觉在面对白墙、透明玻璃等无纹理环境时的“白墙恐惧症”,还通过神经网络深度计算,提高了距离测量的准确性。更重要的是,它实现了“感知-行动”的闭环在毫秒级内完成,保证了机器人动作的敏捷性和准确性。
如果说Insight相机解决了机器人“看得见”的问题,那么TinyNav神经导航算法库则是为了解决“认得路”的难题。TinyNav项目发起人杨振飞介绍,该算法库借鉴了生物大脑中的“网格细胞”和“位置细胞”机制,通过仿生学路径实现机器人的环境认知。与传统的几何测量导航技术相比,TinyNav更加注重环境的特征识别,能够大幅提升导航系统的泛化性。同时,其核心代码行数被严格限制在3000行以内,体现了轻规则重数据的设计理念。
宸境科技首席机器人科学家左星星的加盟,为公司在多模态感知、场景理解等领域的前沿技术研究提供了坚实支撑。作为机器人感知领域的专家,左星星在移动机器人感知、3D计算机视觉等方面有着深厚的学术背景和丰富的实践经验。他的加入,无疑将加速宸境科技在具身智能领域的技术创新和产品迭代。
为了让这套系统更加易用,宸境科技还开发了RoboSpatial空间编辑平台。该平台通过可视化的界面设计,使得开发者能够像搭积木一样进行路径规划和区域设置,极大降低了具身智能落地的门槛。无论是大型港口还是园区,运营人员都能在短时间内完成机器人作业流程的部署,推动了具身智能技术的广泛应用。
从算法和软件到硬核传感器硬件的跨越,宸境科技的这一步转型看似突兀,实则顺应了空间智能技术发展的必然趋势。公司联合创始人兼CEO胡闻提出了“空间智能即服务”的全新理念,认为具身智能将成为未来物理任务的基础设施。宸境科技的角色,正是成为这个庞大产业链中的一级供应商,为机器人提供统一、标准、高可用的感知底座。











