据北京发布消息,2月12日,字节跳动宣布其豆包视频生成模型Seedance2.0正式发布,现已全面接入豆包和即梦产品,并上线火山方舟体验中心供用户试用。该模型在遵循物理规律、保持长效一致性方面取得突破,为创作者提供了高自由度,使视频生成质量和可控性满足专业生产场景要求。
导演级操控,让视频生成“所想即所见”
Seedance2.0在运动场景下的生成可用率达到业界先进水平,能自然连贯地建模人物动作,高保真合成时序精密的复杂交互场景,并在特写镜头中呈现逼真细节与严密物理逻辑。
多模态全能参考
模型支持文字、图片、音频、视频四种模态混合输入,可参考输入素材中的构图、动作、运镜、特效、声音等元素,大幅提升创作自由度。
指令遵循与可控性全面提升
Seedance2.0能精准还原复杂脚本,保持主体一致性,并具备一定的编导思维,使分镜设计和运镜贴合叙事逻辑。此外,模型新增了视频编辑和视频延长能力。
高仿真沉浸音效同步生成
模型集成双声道立体声技术,可实现高仿真、沉浸式的音效生成,支持背景音乐、环境音效或人物解说等多轨音频并行输出,并能与画面节奏精准对齐。
广泛适配各类生产场景
无论是商业广告、影视特效、游戏(881275)动画还是解说视频,模型均能提供高质量的生成效果。预计2月中下旬,其API服务将在火山方舟上线,服务企业客户。
评测显示综合表现行业领先
字节跳动Seed团队协同影视专家建立了综合评测集与标准。在文生视频(886068)、图生视频、多模态参考生成等各项评测中,Seedance2.0的综合表现达到行业领先水平。不过,模型在细节稳定性、多人口型匹配、多主体一致性、文字还原精度和复杂编辑效果等方面仍有优化空间。
目前,Seedance2.0限制了将真人图像/视频作为主体参考,如需使用必须经本人验证或取得授权。团队表示将持续优化模型,以更高效、稳定、智能的工具服务创作者。
原文:AI宛如实拍!Seedance2.0上线引热议!网友直呼:太强——(来源:北京发布)
