Objects moving at high speed appear significantly blurred when captured with cameras. The blurry appearance is especially ambiguous when the object has complex shape or texture. In such cases, classical methods, or even humans, are unable to recover the object's appearance and motion. We propose a method that, given a single image with its estimated background, outputs the object's appearance and position in a series of sub-frames as if captured by a high-speed camera (i.e. temporal super-resolution). The proposed generative model embeds an image of the blurred object into a latent space representation, disentangles the background, and renders the sharp appearance. Inspired by the image formation model, we design novel self-supervised loss function terms that boost performance and show good generalization capabilities. The proposed DeFMO method is trained on a complex synthetic dataset, yet it performs well on real-world data from several datasets. DeFMO outperforms the state of the art and generates high-quality temporal super-resolution frames.


翻译:当用相机捕获时,高速移动的物体似乎明显模糊。当物体有复杂的形状或纹理时,模糊的外观特别模糊。在这种情况下,古典方法,甚至人类,无法恢复物体的外观和运动。我们提出一种方法,根据一个带有估计背景的单一图像,在一系列子框中输出物体的外观和位置,仿佛被高速相机(即时间超分辨率)所捕获。拟议的基因模型将模糊物体的图像嵌入一个潜在的空间代表,使背景分解,并造成清晰的外观。在图像形成模型的启发下,我们设计了新的自我监督损失功能术语,以提升性能并展示良好的概括性能力。拟议的DeFMO方法在复杂的合成数据集上受过训练,但在许多数据集中,它却在真实世界数据上表现良好。DeFMO超越了艺术的状态,并产生了高品质的时空超分辨率框架。

0
下载
关闭预览

相关内容

3D目标检测进展综述
专知会员服务
193+阅读 · 2020年4月24日
专知会员服务
61+阅读 · 2020年3月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
3D Face Modeling from Diverse Raw Scan Data
Arxiv
5+阅读 · 2019年2月13日
Arxiv
5+阅读 · 2018年5月22日
Arxiv
7+阅读 · 2018年3月19日
Arxiv
5+阅读 · 2018年1月17日
VIP会员
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
MoCoGAN 分解运动和内容的视频生成
CreateAMind
18+阅读 · 2017年10月21日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员