字节跳动近日正式推出全新音视频生成模型Seedance 1.5 pro,该模型突破性地实现了从文本或图像直接生成带有同步音频的动态视频,标志着音视频联合生成技术迈入新阶段。通过深度优化音画同步机制,模型能够精准匹配口型动作、语音语调与表演节奏,在多语言场景下展现出显著优势。
技术团队介绍,Seedance 1.5 pro支持中、英、日等主流语言,并特别强化了方言语音模拟能力,可精准还原四川话、粤语等地域特色发音。在视频生成维度,模型创新性地引入自主运镜调度系统,能够自动生成长镜头跟随、希区柯克式变焦等专业级拍摄效果,显著提升画面叙事张力。某影视制作公司测试显示,使用该模型生成的广告片在动态构图方面达到行业中等水平。
该模型采用基于MMDiT架构的联合生成框架,通过多阶段数据链路优化与强化学习训练,实现了音视频内容的协同创作。在影视创作、广告制作、互动短剧等场景的实测中,生成内容在指令响应准确度、音频保真度等指标上较前代提升37%,但在复杂物理运动模拟、多角色交互等高阶功能上仍需持续优化。技术白皮书显示,模型目前可处理包含5个以上角色的场景,但对话连贯性存在12%的误差率。
据开发团队透露,Seedance 1.5 pro已向特定行业用户开放内测,首批合作方涵盖影视制作公司、广告代理商及游戏开发商。某知名短视频平台测试数据显示,使用该模型生成的30秒剧情短视频,制作周期从传统方式的72小时缩短至8小时,人力成本降低65%。技术文档特别指出,模型在生成历史题材内容时,可通过参数调整实现不同朝代的服饰、建筑风格自动适配。














