关键功能

无需训练和即插即用的框架
为现有的视频扩散模型添加精确的运动控制
使用粗糙的参考动画作为粗略的运动提示
将 SDEdit 的机制应用于视频领域
实现运动和外观的联合控制
保留输入细节并忠实地遵循运动
在没有额外训练或架构更改的情况下生成逼真的视频
灵活的方法产生没有伪影的逼真动态

TTM 接受输入图像和用户指定的运动,然后自动构建一个粗略扭曲的参考视频和一个标记受控区域的掩码。图生视频扩散模型以干净的输入图像为条件,并从扭曲参考的噪声版本初始化,以锚定外观同时注入预期的运动。在采样过程中,应用双时钟去噪以强制执行命令的运动并实现自然的动态。


Time-to-Move 实现了运动和外观的联合控制,允许插入原始图像外部的新对象以及修改现有对象的​​外观。实验证明,在真实感和运动保真度方面,TTM 的性能与基于训练的基线相当或更优。这种灵活的方法产生了没有伪影的逼真动态,使其成为视频生成和操作的有力工具。

在您的网站添加此徽章,以获得更多点赞并登上搜索结果顶部!

嵌入按钮预览 - 浅色主题
嵌入按钮预览 - 深色主题

Subscribe to the AI Search Newsletter

Get top updates in AI to your inbox every weekend. It's free!