在人工智能领域,一场关于“空间智能”的竞赛正悄然升温。由“AI教母”李飞飞创立的World Labs,凭借其颠覆性的技术路线,成为这场竞赛中最受瞩目的黑马。这家成立仅两年的初创公司,近日宣布完成10亿美元融资,投后估值飙升至50亿美元,更吸引了英伟达与AMD这两大芯片巨头罕见联手投资,引发行业震动。
World Labs的核心突破在于其开发的“大型世界模型”(LWM)。与传统AI专注于文本或二维图像不同,这一模型能够生成具有物理属性的3D虚拟世界——水会流动、玻璃会碎裂、物体碰撞遵循真实力学规律。更令人惊叹的是,仅需一张照片或一段视频,系统便能自动补全场景中未被拍摄的部分,甚至推测出天花板高度、窗外景色等隐藏信息。这种从“平面识别”到“立体理解”的跨越,被李飞飞形容为赋予AI“物体恒常性”的婴儿级认知能力。
支撑这一技术落地的,是一支以华人科学家为主体的顶尖团队。联合创始人中不乏清华、北大等名校背景的技术精英,而李飞飞本人在学术界与资本圈的双重影响力,也为公司融资铺平了道路。她不仅是Radical Ventures的科学合伙人,还与金沙江创投等机构保持着深度合作,这种资源网络成为World Labs快速崛起的关键因素。
真正让科技巨头们趋之若鹜的,是World Labs在“具身智能”领域的潜力。当前,物理机器人训练面临两大难题:真实世界试错成本高昂,且传统数字孪生技术复刻现实世界的效率极低。World Labs的解决方案是构建“数字表亲”体系——通过快速生成海量近似真实的3D场景,让机器人在虚拟环境中完成危险动作的预演。例如,机器人可以在虚拟厨房中反复练习拿取玻璃杯,直到掌握精准力度后再部署到现实场景,从而大幅降低训练成本与风险。
为实现这一目标,World Labs与中国仿真合成数据公司光轮智能展开合作。前者负责可视化场景生成,后者提供底层物理引擎,双方技术互补形成完整闭环。如今,仅需几分钟,系统就能将一张全景图转化为可交互的仿真环境,解决了行业长期面临的规模化数据采集难题。这种“低成本、高效率”的模式,被视为机器人训练领域的革命性突破。
学术界同样为World Labs的技术进展所震撼。2025年,团队提出的MoMaGen技术进一步缩短了虚拟与现实的距离:通过1条人类动作示范,系统可裂变生成数千条符合物理规则的仿真数据,再经40条真实数据微调后即可直接部署到实体机器人。这种“示范-仿真-微调-部署”的闭环,标志着具身智能从实验室概念向工业级应用的跨越。
商业落地方面,World Labs已与设计软件巨头Autodesk达成深度合作。建筑师可先用世界模型快速生成办公室布局草图,再导入Autodesk工具进行精细化设计,这种B2B服务模式为公司开辟了清晰的盈利路径。据统计,过去一年内,全球超过13亿美元资金涌入世界模型赛道,除World Labs外,meta首席科学家杨立昆创立的AMI Labs、谷歌DeepMind的Genie 3项目也在加速布局。
然而,挑战依然存在。世界模型的训练需要高质量3D空间数据,其获取成本远高于文本数据;物理建模的容错率极低——语言模型出错可能只是闹笑话,但世界模型的偏差可能导致机器人撞墙或自动驾驶事故。英伟达、AMD等资本的押注,不仅是对李飞飞个人光环的认可,更是对AI从“语言智能”向“物理世界”拓展这一趋势的判断。当人工智能开始理解空间、模拟物理规律,那个能替代人类完成复杂任务的通用机器人,或许已不再遥远。












