阿里通义万相团队宣布,其全新研发的动作生成模型Wan2.2-Animate正式面向全球开发者开源。该模型突破传统生成框架,可同时驱动人物、动漫角色及动物形象完成动态动作,在短视频创作、舞蹈模板生成、动画制作等领域展现出广泛应用潜力。
作为Animate Anyone模型的升级版,Wan2.2-Animate在核心性能上实现跨越式提升。研究团队通过构建百万级人物视频数据集,结合图生视频模型的后训练技术,使生成视频在主体一致性、动作流畅度等关键指标上达到行业领先水平。实测数据显示,该模型在视频质量评估、主体识别准确率等维度全面超越StableAnimator、LivePortrait等开源方案,甚至在人类主观评测中优于Runway Act-two等闭源商业模型。
模型创新性地提出双模式架构,支持"角色模仿"与"角色扮演"两种生成范式。在角色模仿模式下,用户仅需上传静态图片与参考视频,系统即可将视频中角色的动作、表情精准迁移至图片角色,赋予静态形象动态表现力;角色扮演模式则可在保持原始视频动作、表情与环境的基础上,将视频角色无缝替换为指定图片角色,实现跨形象的动作复现。
技术实现层面,研究团队采用统一表示框架,将角色特征、环境信息与动作指令编码为标准化格式,使单一模型兼容两种生成模式。针对身体运动与面部表情的差异化需求,模型分别运用骨骼信号与隐式特征进行解析,配合动作重定向模块实现毫米级动作复刻。在角色替换场景中,特别设计的光照融合LoRA组件可自动适配环境光源,确保生成画面无明显光照断层。
即日起,全球开发者可通过GitHub、HuggingFace及魔搭社区获取完整模型代码与训练数据集。阿里云百炼平台同步开放API调用服务,用户也可直接登录通义万相官网体验实时生成功能。该模型的开源将进一步降低动作生成技术的使用门槛,为数字内容创作领域注入新的技术动能。