【泡泡点云时空】StereoDRNet:基于扩张卷积的双目残差网络

2019 年 9 月 8 日 泡泡机器人SLAM

泡泡点云时空,带你精读点云领域顶级会议文章

标题:StereoDRNet: Dilated Residual Stereo Net

作者:Rohan Chabra, Julian Straub, Chris Sweeney, Richard Newcombe, Henry Fuchs

来源:CVPR  (2019)

编译:任乾

审核:郑森华

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权

摘要

       我们提出了一种基于卷积神经网络(CNN)的深度估计系统,该系统通过对从双目图像对中预测的深度图进行体积融合,从而得到场景的三维重建。我们提出了一种深度改进架构,它可以计算可视图的视差并预测遮挡部分,进而帮助融合系统产生几何一致的重建。我们在提出的新的代价滤波网络中利用3D扩张卷积,与现有滤波架构相比,会产生更好的滤波效果,同时将计算量减少一半。对于特征提取,我们使用Vortex Pooling架构。所提出的方法在KITTI 2012,KITTI 2015和ETH 3D数据集测试中均取得了最优秀的结果。最后,我们证明了我们的系统能够产生高质量的3D场景重建效果,其性能优于当前最先进的重建系统。

主要贡献

  1. 新的视差改进网络:我们工作的主要动机是预测立体输入的几何一致视差图,可以直接用于基于TSDF的融合系统,如KinectFusion,用于同步跟踪和绘图。表面法线是KinectFusion类系统中融合权重计算的一个重要因素,我们观察到现有的双目重建系统(如PSMNet)产生的视差图不是几何一致的,对TSDF融合产生负面影响。为了解决这个问题,我们提出了一种新颖的改进网络,它将几何误差,光度误差和未确定的视差作为输入,并产生重新定义的视差(通过残差学习)和遮挡图。

  2. 代价滤波中的3D扩张卷积:使用3D代价滤波方法的最先进的双目重建系统(如PSMNet和GC-Net)使用了过多的计算资源。而在我们的系统中,在所有三个维度(即宽度,高度和视差通道)中使用3D扩张卷积给出了更好的结果,并且计算量更少。

  3. 我们观察到,与空间金字塔池化(在PSMNet中使用)相比,vortex pooling 提供了更好的结果。我们发现用过滤非基本真实区域的排除掩模微调我们的模型,对于获得视差预测中的锐边和细节非常有用。

主要算法

1、整体思路

       本论文所提出的算法可以分解为特征提取,代价滤波和视差估计改进三个步骤,而不是使用通用的编码器 - 解码器CNN。算法整体的系统流程如图1所示。

图1 算法整体思路

2、特征提取

       特征提取从一个小的共享权重Siamese网络开始,该网络将输入作为图像并将输入编码为一组特征。为了在特征映射中对局部空间信息进行编码,首先使用大小为2的卷积对输入进行下采样。本方法使用三个滤波器而不是大型的卷积,其中第一个卷积的步幅为2。为了编码更多的上下文信息,在学习的局部特征图上选择Vortex Pooling,Vortex Pooling的结构图如图2所示。除了在空间池化输出上的最后3x3卷积之外,我们的每个卷积之后都是批量标准化和RELU激活。为了使特征信息保持紧凑,在整个特征提取过程中将特征的尺寸保持为32。

图2 Vortex Pooling结构图


3、代价体素滤波

        首先通过沿宽度,高度和深度尺寸的卷积处理代价量。然后通过2的步幅进行卷积来降低代价的分辨率,然后并行地进行扩张卷积。扩张卷积滤波器的串联上的卷积用于组合从不同感受野获取的信息。

        残差学习已经被证明在视差优化过程中非常有效,因此提出了一系列这样的块来迭代地改进视差预测的质量。将整个过程描述为扩张残差代价滤波,如图3所示。

图3 扩张代价滤波结构图

        我们支持改进的网络架构可预测左视图和右视图的差异,作为差异预测中的单独通道。需要注意的是,我们构建左视图和右视图的代价,并在滤波之前将它们连接起来,这确保了为代价滤波方法提供了两个视图的代价信息。

4、视差估计改进

        我们首先通过使用一层卷积,然后批量归一化来独立过滤左图像和重建误差以及左视差和几何误差图。随后将这些结果连接起来,进行空洞卷积,从而在不增加网络规模的情况下从更大的上下文中进行采样。我们分别使用速率为1,2,4,8,1和1的扩张。最后,使用没有ReLU或批量归一化的单个卷积来输出遮挡图O和视差残差图R。改进后的网络结构如图3所示。

图4 改进后的视差估计网络结构

实验

       作者在整个多个数据集上测试了所提出的架构,例如SceneFlow,KITTI 2012,KITTI 2015和ETH3D。而且还展示了系统在构建室内场景的3D重建中的实用性。

       在SceneFlow数据集上和PSMNet网络的对比效果如图5所示。图中顶行显示差异,底行显示EPE地图。从图中可以看出,作者所提出的网络能够恢复薄和小结构,同时在均匀区域中显示较低的误差。

图5 在SceneFlow数据集上和PSMNet网络的对比效果

       表1显示了有和没有改进网络架构的定量分析。Stereo-DRNet可以在减少计算时间的同时实现显着降低端点误差。而且作者提出的代价滤波方法在计算量显著降低的情况下实现更高的准确性,证明了方法的有效性。

表1 有和没有改进网络架构的定量分析

结论

       本文提出了一种基于双目的3D场景重建方法,该方法使用卷积神经网络结合预测深度图来估计图像对的深度。

同时提出了一种深度改进架构,它帮助融合系统产生几何一致的重建。最后在SceneFlow数据集上的结果显示,取得了state-of-art的效果。

Abstract

       We propose a system that uses a convolution neural net-work (CNN) to estimate depth from a stereo pair followed by volumetric fusion of the predicted depth maps to produce a 3D reconstruction of a scene. Our proposed depth refinement architecture, predicts view-consistent disparity and occlusion maps that helps the fusion system to produce geometrically consistent reconstructions. We utilize 3D dilated convolutions in our proposed cost filtering network that yields better filtering while almost halving the computational cost in comparison to state of the art cost filtering architectures. For feature extraction we use the Vortex Pooling architecture [26]. The proposed method achieves state of the art results in KITTI 2012, KITTI 2015 and ETH 3D stereo benchmarks. Finally, we demonstrate that our system is able to produce high fidelity 3D scene reconstructions that outperforms the state of the art stereo system.

如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号。

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/bbs/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com

登录查看更多
13

相关内容

在数学(特别是功能分析)中,卷积是对两个函数(f和g)的数学运算,产生三个函数,表示第一个函数的形状如何被另一个函数修改。 卷积一词既指结果函数,又指计算结果的过程。 它定义为两个函数的乘积在一个函数反转和移位后的积分。 并针对所有shift值评估积分,从而生成卷积函数。
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
24+阅读 · 2020年5月7日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
专知会员服务
41+阅读 · 2020年2月20日
【泡泡点云时空】基于分割方法的物体六维姿态估计
泡泡机器人SLAM
18+阅读 · 2019年9月15日
【泡泡点云时空】PointConv: 3D点云的深度卷积网络
泡泡机器人SLAM
23+阅读 · 2019年6月12日
【泡泡点云时空】FlowNet3D:学习三维点云中的场景流
泡泡机器人SLAM
41+阅读 · 2019年5月19日
【泡泡图灵智库】用于单目深度估计的深度有序回归网络
用于RGB-D室内场景语义分割的门式融合局部感知反卷积网络
机器学习研究会
7+阅读 · 2017年10月30日
Arxiv
4+阅读 · 2018年3月30日
VIP会员
Top
微信扫码咨询专知VIP会员