Most of the recent deep learning-based 3D human pose and mesh estimation methods regress the pose and shape parameters of human mesh models, such as SMPL and MANO, from an input image. The first weakness of these methods is an appearance domain gap problem, due to different image appearance between train data from controlled environments, such as a laboratory, and test data from in-the-wild environments. The second weakness is that the estimation of the pose parameters is quite challenging owing to the representation issues of 3D rotations. To overcome the above weaknesses, we propose Pose2Mesh, a novel graph convolutional neural network (GraphCNN)-based system that estimates the 3D coordinates of human mesh vertices directly from the 2D human pose. The 2D human pose as input provides essential human body articulation information, while having a relatively homogeneous geometric property between the two domains. Also, the proposed system avoids the representation issues, while fully exploiting the mesh topology using a GraphCNN in a coarse-to-fine manner. We show that our Pose2Mesh outperforms the previous 3D human pose and mesh estimation methods on various benchmark datasets. For the codes, see https://github.com/hongsukchoi/Pose2Mesh_RELEASE.


翻译:最近大多数基于深层次学习的 3D 人类外观和网状估计方法的多数基于深层次的 3D 人类外观和网状估计方法,都从输入图像中倒退了SMPL 和 MANO 等人类网形模型的外形和形状参数。这些方法的第一个弱点是,由于来自受控制环境(如实验室)的列车数据与来自荒野环境中的测试数据之间的图像外观不同,因此出现了表面上的空白问题。第二个弱点是,由于3D 旋转的表述问题,对表面参数的估计具有相当大的挑战性。为了克服上述弱点,我们提议建立一个基于Sose2Mesh的新颖的图表神经神经网络(GraphCNN)系统(GraphCNN),用于估算直接来自2D 人类外观的3D 人类间螺旋形坐标。2D 人形作为输入提供了基本的人体表达信息,同时在两个领域之间具有相对均匀的地理属性。此外,拟议系统避免了代表性问题,同时用直观方式利用图CN 来充分利用网状表的表层表的表。我们Pose2Mesheshesheshesh 的神经神经网络网状神经网络网状网络网状网状网络系统(Gresheggs pregress pregress pregress pregress pregres pres promas pregus) 3D 3D 3Dmmexmusmusmusmus_mas

0
下载
关闭预览

相关内容

专知会员服务
102+阅读 · 2020年11月27日
专知会员服务
191+阅读 · 2020年10月14日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
110+阅读 · 2019年11月25日
深度学习界圣经“花书”《Deep Learning》中文版来了
专知会员服务
230+阅读 · 2019年10月26日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
【泡泡一分钟】基于3D激光雷达地图的立体相机定位
泡泡机器人SLAM
4+阅读 · 2019年1月14日
SkeletonNet:完整的人体三维位姿重建方法
极市平台
11+阅读 · 2019年1月11日
【泡泡一分钟】基于紧凑模型表示的三维重建(3dv-12)
泡泡机器人SLAM
10+阅读 · 2017年12月7日
漫谈Capsule Network基本原理
深度学习每日摘要
9+阅读 · 2017年12月6日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
0+阅读 · 2021年6月14日
Arxiv
0+阅读 · 2021年6月6日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
Arxiv
28+阅读 · 2018年4月6日
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
(Python)3D人脸处理工具Face3d
AI研习社
7+阅读 · 2019年2月10日
【泡泡一分钟】LIMO:激光和单目相机融合的视觉里程计
泡泡机器人SLAM
11+阅读 · 2019年1月16日
【泡泡一分钟】基于3D激光雷达地图的立体相机定位
泡泡机器人SLAM
4+阅读 · 2019年1月14日
SkeletonNet:完整的人体三维位姿重建方法
极市平台
11+阅读 · 2019年1月11日
【泡泡一分钟】基于紧凑模型表示的三维重建(3dv-12)
泡泡机器人SLAM
10+阅读 · 2017年12月7日
漫谈Capsule Network基本原理
深度学习每日摘要
9+阅读 · 2017年12月6日
计算机视觉近一年进展综述
机器学习研究会
8+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Top
微信扫码咨询专知VIP会员