阿里云旗下通义万相团队近日宣布,其全新研发的动作生成模型Wan2.2-Animate正式面向全球开发者开源。该模型突破传统生成边界,支持对真实人物、卡通形象及动物照片进行动态化处理,目前已覆盖短视频创作、舞蹈模板生成、动画制作等多元化场景。开发者可通过GitHub、HuggingFace及魔搭社区获取完整代码与模型文件,亦可通过阿里云百炼平台调用API接口,或在通义万相官网直接体验服务。
作为Animate Anyone模型的迭代升级版,Wan2.2-Animate在人物形象稳定性、画面质量等核心指标上实现显著突破。其独创的双模式架构包含动作模仿与角色扮演两大功能:前者可将参考视频中的人物动态精准迁移至静态图片角色,赋予其自然流畅的动作表现;后者则能在保留原始视频动作与环境的基础上,完成角色形象的无缝替换。这种设计使得同一模型可同时适配不同创作需求。
技术实现层面,研发团队构建了包含面部表情、肢体动作及语音同步的大规模人物视频数据库,并依托通义万相图生视频模型进行专项优化。模型通过统一编码框架整合角色特征、环境参数及动作指令,使单一架构支持多模式推理。针对人体运动与面部细节,分别采用骨骼信号控制与隐式特征提取技术,配合动作重定向算法实现毫米级精度复刻。在角色替换场景中,创新引入光照融合LoRA模块,有效解决不同光源条件下的画面融合难题。
第三方评测数据显示,该模型在视频质量、主体一致性及语义对齐等维度全面超越StableAnimator、LivePortrait等同类开源方案。在用户主观评价测试中,其生成效果甚至优于Runway Act-two等商业闭源模型。目前模型已支持140亿参数规模,在保持高效推理的同时,提供更丰富的细节表现力。
项目开源地址已同步上线三大技术社区:GitHub平台提供完整代码库(https://github.com/Wan-Video/Wan2.2),魔搭社区与HuggingFace则分别部署模型文件(https://modelscope.cn/models/Wan-AI/Wan2.2-Animate-14B;https://huggingface.co/Wan-AI/Wan2.2-Animate-14B)。此举标志着国内团队在多模态生成领域的技术输出能力达到新高度。