可灵AI近日通过官方公众号正式宣布,其自主研发的全球首款统一多模态视频生成模型——可灵视频O1已面向全体用户开放使用。这一突破性成果标志着视频生成领域进入全新阶段,通过整合多模态交互能力,实现了从单一功能到综合创作的跨越式升级。
据技术白皮书披露,该模型创新性采用生成式架构底座,通过多模态视觉语言(MVL)交互框架,将图像生成、视频创作、文本理解等任务整合至统一输入界面。用户无需切换不同功能模块,仅需在单一对话框中输入混合指令,即可同步完成主体构建、场景渲染与细节优化。例如输入"生成一位穿红色汉服的女子在古风庭院中弹奏古筝的视频,要求镜头从全景推近至特写",系统可自动解析多维度要求并生成连贯画面。
核心技术创新方面,模型引入的思维链(Chain-of-thought)技术显著提升了内容逻辑性。通过模拟人类推理过程,系统能够理解"雨天打伞"与"地面水渍"的因果关系,或"运动员起跑"与"观众反应"的时间顺序。官方测试数据显示,在复杂场景的事件推演任务中,模型准确率较前代提升67%,尤其在多主体交互场景中展现出更强的语义理解能力。
创作界面同步迎来重大升级,新版本支持通过自然语言对话调整画面参数。用户可实时修改"主体服饰颜色""背景光影效果"等200余项细节,系统将自动生成多版本方案供选择。针对专业创作者,平台还开放了镜头运动控制、帧率调节等高级功能,满足从短视频创作到影视级制作的不同需求。
在主体一致性控制方面,模型通过三维空间建模技术实现了跨镜头稳定表现。即使经历"从远景到特写"或"360度环绕拍摄"等极端视角变化,主体特征仍能保持高度一致。测试案例显示,在连续200帧的复杂运镜中,人物面部特征识别误差率低于0.3%,衣物褶皱、配饰细节等微观元素亦能精准复现。该技术已应用于影视预告片制作、虚拟偶像直播等多个商业化场景。










