前沿 | 画个草图生成2K高清视频,这份效果惊艳研究值得你跑一跑

2018 年 8 月 23 日 MOOC

| 全文共2119字,建议阅读时4分钟 |

 

本文经机器之心(微信公众号:almosthuman2014)授权转载,禁止二次转载


选自:GitHub

作者:Ting-Chun Wang 等

参与:刘晓坤、王淑婷


在图像到图像合成的研究领域热火朝天的当下,英伟达又放大招,联合 MIT CSAIL 开发出了直接视频到视频的转换系统。该系统不仅能用语义分割掩码视频合成真实街景视频,分辨率达到 2K;能用草图视频合成真实人物视频;还能用姿态图合成真人舞蹈视频。更令人惊艳的是,在语义分割掩码输入下,换个掩码颜色该系统就能直接将街景中的树变成建筑!目前该项目已开源。


  • 项目展示:https://tcwang0509.github.io/vid2vid/

  • 项目地址:https://github.com/NVIDIA/vid2vid



1 引言


模拟和再现动态视觉世界对于打造智能体来说必不可少。除了纯粹的科学兴趣,学习合成连续的视觉体验在计算机视觉、机器人学和计算机图形学领域都有广泛的应用。例如对于 model-based 的强化学习,逼近动态视觉的视频合成模型能以较少的真实体验数据训练智能体。使用学习的视频合成模型,人们可以生成逼真的视频,而无需明确指定场景几何形状、材料、光传输以及它们的变换,这在使用标准图形渲染技术时会遇到很多麻烦,但却是必要的。


视频合成的形式有很多种,包括未来视频预测和无条件视频合成。在本文中,作者研究了一种新的形式:视频到视频的合成。从核心来说,其目标是学习一种映射函数,它可以将输入视频转换成输出视频。就目前已知的研究工作来看,尽管图像到图像合成研究进行得热火朝天,但视频合成的通用解决方案还没有被探索过。作者表示,本论文提出的方法是受到之前专用视频合成方法启发。


作者将视频到视频的合成问题称之为分布匹配问题,其目标是训练一个模型,使得在给定输入视频后构建一个条件分布以近似合成类似于输入视频的真实视频。为此,他们利用了生成对抗学习框架完成这一建模过程。


给定成对的输入和输出视频,作者学习把输入视频映射到输出域。通过精心设计的生成器和判别器网络以及新的学习目标函数,该方法可以学习合成高分辨率、时间连贯的照片级视频。此外,作者还将该方法扩展到多模态视频合成。在相同的输入条件下,该模型可以制作不同外观的视频。


作者对在几个数据集上进行了广泛的实验验证,任务是将一些列分割掩码转换成照片级的视频。定量和定性结果都表明,该方法合成的镜头看起来比强基线更逼真。他们还进一步证明,该方法可以生成长达 30 秒的真实感 2K 分辨率视频。它还允许用户对视频生成结果进行灵活的高级控制。例如,用户可以轻易地用街景视频中的树替换建筑物。此外,作者还将该方法扩展到了未来预测,结果表明其方法优于现有系统。作者所用代码、模型和其它结果都可以在其网站上找到。


图 1:Cityscapes 结果。其中左上为输入图像、右上为 pix2pixHD 生成的图像、左下为 COVST 生成的图像、右下为本论文提出方法生成的图像。




论文:Video-to-Video Synthesis



论文地址:https://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf


摘要我们研究了视频到视频的合成问题,目标是学习从输入源视频(例如,一系列的语义分割掩码)到输出照片级视频的映射函数,输出视频精确地描绘了源视频的内容。与之对应的图像问题,即图像到图像合成问题是目前流行的研究课题,而视频到视频的合成问题则在文献中很少出现。在没有理解时间动力学的情况下,直接把已有的图像合成方法应用到输入视频通常会导致视觉效果低、时间不连贯的视频。在本文中,我们提出了一种新型的生成对抗网络框架下的视频到视频合成方法。通过精心设计生成器和判别器架构,结合空间-时间对抗目标函数,我们在多种输入视频格式下生成了高分辨率、时间连贯的照片级视频,其中多种形式的输入包括分割掩码、草图和姿态图。在多个基准上的实验结果表明,相对于强基线,我们的方法更具优越性。特别地,我们的模型可以合成长达 30 秒的 2K 分辨率街景视频,与当前最佳的视频合成方法相比具备显著的优势。最后,我们把该方法应用到未来视频预测中,结果超越了多个当前的最佳系统。


2 实验


表 1:在 Cityscapes 街景数据集上视频到视频合成方法的对比结果。


表 2:控制变量研究。作者对比了提出的方法和 3 个变体的性能。分别是初始 vs 无背景-前景先验;初始 vs 无条件视频判别器;初始 vs 无流扭曲。


表 3:在 Cityscapes 数据集上未来视频预测方法的对比结果。


图 2:Apolloscape 的结果。左图:pix2pixHD。中间:COVST。右图:作者提出的方法。输入语义分割掩码视频在左下角展示。


图 3:多模态视频合成结果示例。这些合成视频包含不同的道路表面。


图 4:改变输入语义分割掩码来生成不同视频的示例结果。左图:树到建筑。右图:建筑到树。原始视频如图 3 所示。


图 5:草图到人脸的视频结果示例。




图 6:姿态图到舞蹈的视频结果示例。


喜欢我们就多一次点赞多一次分享吧~


有缘的人终会相聚,慕客君想了想,要是不分享出来,怕我们会擦肩而过~


《预约、体验——新维空间站》

《【会员招募】“新维空间站”1年100场活动等你来加入》

有缘的人总会相聚——MOOC公号招募长期合作者


产权及免责声明 本文系“MOOC”公号转载、编辑的文章,编辑后增加的插图均来自于互联网,对文中观点保持中立,对所包含内容的准确性、可靠性或者完整性不提供任何明示或暗示的保证,不对文章观点负责,仅作分享之用,文章版权及插图属于原作者。如果分享内容侵犯您的版权或者非授权发布,请及时与我们联系,我们会及时内审核处理。


了解在线教育,
把握MOOC国际发展前沿,请关注:
微信公号:openonline
公号昵称:MOOC

 

登录查看更多
0

相关内容

专知会员服务
107+阅读 · 2020年5月21日
姿势服装随心换-CVPR2019
专知会员服务
34+阅读 · 2020年1月26日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
【GitHub实战】Pytorch实现的小样本逼真的视频到视频转换
专知会员服务
35+阅读 · 2019年12月15日
【ICIP2019教程-NVIDIA】图像到图像转换,附7份PPT下载
专知会员服务
53+阅读 · 2019年11月20日
深度学习视频中多目标跟踪:论文综述
专知会员服务
90+阅读 · 2019年10月13日
NVIDIA视频合成有多「骚」,看看蒙娜丽莎你就知道了
机器学习算法与Python学习
17+阅读 · 2019年10月28日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
视频生成的前沿论文,看我们推荐的7篇就够了
人工智能前沿讲习班
34+阅读 · 2018年12月30日
SFFAI 16 报名通知 | 视频生成
人工智能前沿讲习班
8+阅读 · 2018年12月30日
Arxiv
14+阅读 · 2019年11月26日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关资讯
NVIDIA视频合成有多「骚」,看看蒙娜丽莎你就知道了
机器学习算法与Python学习
17+阅读 · 2019年10月28日
基于姿态的人物视频生成【附PPT与视频资料】
人工智能前沿讲习班
32+阅读 · 2019年1月28日
视频生成的前沿论文,看我们推荐的7篇就够了
人工智能前沿讲习班
34+阅读 · 2018年12月30日
SFFAI 16 报名通知 | 视频生成
人工智能前沿讲习班
8+阅读 · 2018年12月30日
相关论文
Arxiv
14+阅读 · 2019年11月26日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
6+阅读 · 2018年1月29日
Top
微信扫码咨询专知VIP会员