This paper addresses the challenge of quickly reconstructing free-viewpoint videos of dynamic humans from sparse multi-view videos. Some recent works represent the dynamic human as a canonical neural radiance field (NeRF) and a motion field, which are learned from videos through differentiable rendering. But the per-scene optimization generally requires hours. Other generalizable NeRF models leverage learned prior from datasets and reduce the optimization time by only finetuning on new scenes at the cost of visual fidelity. In this paper, we propose a novel method for learning neural volumetric videos of dynamic humans from sparse view videos in minutes with competitive visual quality. Specifically, we define a novel part-based voxelized human representation to better distribute the representational power of the network to different human parts. Furthermore, we propose a novel 2D motion parameterization scheme to increase the convergence rate of deformation field learning. Experiments demonstrate that our model can be learned 100 times faster than prior per-scene optimization methods while being competitive in the rendering quality. Training our model on a $512 \times 512$ video with 100 frames typically takes about 5 minutes on a single RTX 3090 GPU. The code will be released on our project page: https://zju3dv.github.io/instant_nvr


翻译:本文讨论快速重建由稀有多视图视频提供的动态人类自由视野视频的挑战。 近期的一些作品代表了动态人类, 是一个有活力人类的康纳神经光亮场和一个运动场, 通过不同的图像学习。 但是, perscene 优化通常需要几个小时。 其它一般的 NeRF 模型利用了先前从数据集中学习的优势, 并且只通过微调新场景, 以视觉忠诚为代价微调来减少优化时间。 在本文中, 我们提出了一个创新的方法, 用于学习动态人类的神经体积视频, 以具有竞争性视觉质量的分钟从稀有的视觉视频中学习。 具体地说, 我们定义了一个新的基于部分的合成人类代表法, 以更好地向不同的人类部分分配网络的演示力。 此外, 我们提出了一个新的 2D 运动参数化方案, 以提高变形场学习的趋同率。 实验表明, 我们的模型可以比先前的每台最美的方法快100倍于在质量上更具有竞争力。 我们的模型在512\time 视频上培训512$ 500美元, 视频, 以100 框架为100 常规: 通常需要 5分钟的 GPO_ x 。 将一个单一的GPOV.</s>

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
167+阅读 · 2020年3月18日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Representing Volumetric Videos as Dynamic MLP Maps
Arxiv
0+阅读 · 2023年4月13日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关论文
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员