ITBear旗下自媒体矩阵:

阿里通义万相Wan2.2开源:电影级视频制作,效率与美学并进的创新

   时间:2025-07-29 04:01:14 来源:证券时报编辑:快讯团队 IP:北京 发表评论无障碍通道
 

在科技与创新的前沿,阿里巴巴于7月28日晚间宣布了一项重大进展——开源了其电影级视频生成模型通义万相Wan2.2。这一模型突破性地将光影、色彩以及镜头语言等电影核心美学要素融入其中,用户能够自由调控超过60个直观参数,极大地加速了电影级画面的创作流程。

通义万相团队通过展示《星际穿越》、《布达佩斯大饭店》及《海上钢琴师》等经典影片的场景,生动诠释了Wan2.2的实力。目前,该模型已能实现单次5秒高清视频的生成,用户还能借助多轮提示词,进一步完成短片创作。未来,通义万相计划延长单次视频生成的时长,进一步提升视频创作的便捷性。

此次开源的Wan2.2包括三款核心模型:文生视频(Wan2.2-T2V-A14B)、图生视频(Wan2.2-I2V-A14B)以及统一视频生成模型(Wan2.2-TI2V-5B)。尤为前两款模型均为业界首次采用MoE架构的视频生成模型,拥有27B的总参数量,其中14B为激活参数。这些模型由高噪声专家和低噪专家两部分组成,分别负责视频的宏观布局与细节优化。在相同参数规模下,它们能节省约50%的计算资源,有效解决视频生成中因Token过长导致的资源消耗问题,同时在复杂运动表现、人物互动、美学呈现等方面也取得了显著提升。

通义万相还推出了一款5B小尺寸的统一视频生成模型,该模型同时支持文本到视频和图像到视频的生成,且能在消费级显卡上运行。它采用了高压缩率的3D VAE架构,时间与空间压缩比分别达到4倍、16倍和16倍,信息压缩率更是提升至64倍,均达到了开源模型的顶尖水平。仅需22G显存,该模型就能在几分钟内生成5秒高清视频,是当前生成24帧每秒、720P像素级视频速度最快的基础模型之一。

现在,开发者可以在GitHub、HuggingFace以及魔搭社区下载Wan2.2的模型和代码,企业用户则能通过阿里云百炼平台调用模型API。同时,通义万相官网和通义APP也为用户提供了直接体验的机会。

自今年2月以来,通义万相已陆续开源了多款视频生成与编辑模型,包括文生视频、图生视频、首尾帧生视频及全能编辑等,这些模型在开源社区的下载量已超过500万次,成为了开源社区中最受欢迎的视频生成模型之一。

举报 0 收藏 0 打赏 0评论 0
 
 
更多>同类资讯
全站最新
热门内容
网站首页  |  关于我们  |  联系方式  |  版权声明  |  开放转载  |  滚动资讯  |  争议稿件处理  |  English Version