ITBear旗下自媒体矩阵:

武汉光谷新突破:人形机器人动作大模型发布 零代码开启智能开发新篇

   时间:2026-05-10 08:30:49 来源:快讯编辑:快讯 IP:北京 发表评论无障碍通道
 

无需编写代码,仅通过文本、视频或动捕数据即可生成并部署机器人动作——这一曾被视为科幻场景的技术,如今在武汉光谷成为现实。5月9日,湖北人形机器人创新中心联合北京大学武汉人工智能研究院、北京虚拟动点科技,在光谷正式发布人形机器人动作大模型,并同步推出首个应用级产品“潜擎”创作平台,标志着人形机器人从实验室走向产业应用迈出关键一步。

“人形机器人正从‘炫技’阶段转向‘实用’阶段,但要让机器人在真实场景中高效作业,仍需突破动作智能的瓶颈。”湖北人形机器人创新中心运营负责人黄全周指出,当前行业面临三大挑战:动作开发门槛高、跨机型兼容性差、场景适应能力弱。此次发布的动作大模型,正是针对这些痛点设计的解决方案。该模型由MotionMaster虚拟动作生成器与UniAct真机执行引擎构成,支持高阶语义、视频、音频等多模态输入,可一键生成适用于多品牌、多机型机器人的标准化动作指令,其成功率、泛化能力和执行效率均达到行业领先水平,且已面向全行业开源共享。

北京大学武汉人工智能研究院具身智能中心研究员何子默进一步解释:“这一模型的核心优势在于‘零代码开发’和‘跨平台通用’。开发者无需编程基础,只需通过自然语言描述或上传视频、动捕数据,即可快速生成机器人可执行动作;同时,生成的动作指令可适配不同品牌、型号的机器人,并通过数据回流持续优化模型性能。”据介绍,该模型已通过光谷多个真实场景验证,包括工业巡检、物流搬运、服务接待等,动作生成效率较传统方法提升80%以上。

基于动作大模型,“潜擎”创作平台进一步降低了人形机器人开发门槛。潜空间具身智能(武汉)科技有限公司CEO陈睿表示:“目前市场上300余款人形机器人中,仅少数能实现高动态运动,主要受限于输入方式单一、动作编排复杂、开发者技术壁垒高等问题。‘潜擎’平台通过可视化界面和预置动作库,让普通用户也能轻松完成机器人动作设计,真正实现‘一次创作、多机通用、全场景适配’。”例如,在物流场景中,用户可通过文本描述“从货架A取货并放置到传送带B”,平台自动生成符合机器人动力学特性的动作序列,并同步适配不同型号的机械臂。

湖北人形机器人创新中心作为技术落地支撑方,为模型研发提供了全链条验证环境,包括数据采集、场地测试、真机调试和场景适配。中心还联动产学研资源,推动技术快速转化为商用产品,并搭建产业对接平台,助力模型与平台规模化应用。目前,该中心已与光谷东智、格蓝若、宇树、乐聚等企业达成生态合作,围绕数据服务、模型训练、场景落地等展开协同创新,持续壮大湖北具身智能产业生态。

此次动作大模型的发布,标志着湖北人形机器人创新中心从基础建设阶段迈向高质量运营阶段。中心相关负责人表示,未来将持续强化数据核心能力、完善中试平台建设、深化场景落地实践,助力湖北打造全国领先的具身智能人形机器人产业高地。

 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  争议稿件处理  |  English Version