Runway在纽约正式推出其最新文本生成视频模型Gen-4.5,宣称该模型在多项关键指标上已超越OpenAI的Sora 2和Google的Veo 3。根据官方披露的技术细节,Gen-4.5在视觉真实感、创作控制精度以及动态画面细节呈现方面达到新高度,尤其在光影效果、动作连贯性和画质优化上接近专业影视制作标准。
作为2023年凭借Gen-1模型引发行业关注的科技公司,Runway此次发布的Gen-4.5被视为视频生成领域的重大突破。官方介绍显示,新模型通过优化预训练架构与后训练算法,显著提升了时间维度的一致性和动作可控性。具体表现为人物面部特征稳定、物体运动轨迹合理,连续帧之间的过渡更加自然流畅,有效解决了此前同类模型常见的画面抖动或元素错位问题。
在权威视频模型评测平台Elo的最新排名中,Gen-4.5以1247分的综合评分位居榜首,领先Google Veo 3(1226分)和OpenAI Sora 2 Pro(1206分)。不过评测数据同时显示,领先优势仅维持在2%至3%区间,表明三大模型仍处于技术竞速的胶着状态。
技术特性方面,Gen-4.5延续了前代产品的快速生成优势,同时强化了对物理规律的模拟能力。模型可精准呈现液体飞溅形态、织物褶皱变化、毛发动态摆动等复杂物理现象,并确保运动过程中的画面逻辑自洽。在风格适配性上,该模型既能生成具有电影级质感的写实画面,也可创作风格化的动画作品,满足多元化创作需求。
值得关注的是,Gen-4.5的研发得到英伟达的技术支持,训练与推理过程均基于Blackwell与Hopper架构的GPU集群运行。尽管在物理模拟精度和画面稳定性上取得突破,官方仍坦承模型存在局限性:例如对因果关系的理解偶有偏差,物体持久性表现尚未完美,以及存在"成功偏置"现象——部分本应失败的动态模拟可能呈现反常的成功结果。
针对这些技术短板,Runway研发团队表示将持续优化模型架构,重点攻克世界模型构建中的核心难题。目前Gen-4.5已面向所有订阅用户开放使用,创作者和企业用户无需支付额外费用即可体验新功能,这或将进一步加剧AI视频生成领域的市场竞争。






