The incremental poses computed through odometry can be integrated over time to calculate the pose of a device with respect to an initial location. The resulting global pose may be used to formulate a second, consistency based, loss term in a deep odometry setting. In such cases where multiple losses are imposed on a network, the uncertainty over each output can be derived to weigh the different loss terms in a maximum likelihood setting. However, when imposing a constraint on the integrated transformation, due to how only odometry is estimated at each iteration of the algorithm, there is no information about the uncertainty associated with the global pose to weigh the global loss term. In this paper, we associate uncertainties with the output poses of a deep odometry network and propagate the uncertainties through each iteration. Our goal is to use the estimated covariance matrix at each incremental step to weigh the loss at the corresponding step while weighting the global loss term using the compounded uncertainty. This formulation provides an adaptive method to weigh the incremental and integrated loss terms against each other, noting the increase in uncertainty as new estimates arrive. We provide quantitative and qualitative analysis of pose estimates and show that our method surpasses the accuracy of the state-of-the-art Visual Odometry approaches. Then, uncertainty estimates are evaluated and comparisons against fixed baselines are provided. Finally, the uncertainty values are used in a realistic example to show the effectiveness of uncertainty quantification for localization.


翻译:在对网络造成多重损失的情况下,可以得出每项产出的不确定性,以在最大可能性的设定中权衡不同的损失条件。然而,在对综合转换施加限制时,由于计算法的每一次迭代都只能估计异位值,因此对综合转换施加限制时,没有关于与全球影响相关的不确定性的信息,以权衡全球损失期。在本文件中,我们将不确定性与深异位网络的输出相提并论,并通过每一次迭代传播不确定性。我们的目标是在每一步骤使用估计的共变矩阵,以相应步骤衡量损失,同时用复杂的不确定性来权衡全球损失期。这一提法提供了一种适应性方法,以权衡增量和综合损失期与每个变代数,同时注意到随着新的估计的到来,不确定性的增加。我们提供了定量和定性的估计数分析,并表明我们采用的方法超过了深度的观测网络的输出,并通过每种迭代方式传播不确定性的精确度。我们的目标是利用最终的测算方法来评估当地测度的不确定性。

0
下载
关闭预览

相关内容

2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
ICRA 2019 论文速览 | 基于Deep Learning 的SLAM
计算机视觉life
41+阅读 · 2019年7月22日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
直播 | 室内场景的结构化重建
AI研习社
6+阅读 · 2018年8月31日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
0+阅读 · 2021年9月3日
Arxiv
30+阅读 · 2021年7月7日
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
VIP会员
相关VIP内容
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
相关资讯
ICRA 2019 论文速览 | 基于Deep Learning 的SLAM
计算机视觉life
41+阅读 · 2019年7月22日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
直播 | 室内场景的结构化重建
AI研习社
6+阅读 · 2018年8月31日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员