【泡泡一分钟】ClothNet:基于图片生成真实感着装图(ICCV2017-79)

2018 年 9 月 10 日 泡泡机器人SLAM

每天一分钟,带你读遍机器人顶级会议文章

标题:A Generative Model of People in Clothing

作者:Christoph Lassner,Gerard Pons-Moll,Peter V. Gehler

来源:ICCV 2017 ( IEEE International Conference on Computer Vision)

播音员:水蘸墨

编译:颜青松(89)

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要

     本文展示了第一个使用图像训练进而生成全身着衣的网络。与传统使用复杂的CG渲染的方法不同,本文的算法不需要对人体做高精度的三维扫描,只需要大量的图像即可完成。本文方法的关键难点在于如何将人体姿态、体形和外貌信息加入到网络中,从而保证生成图片的质量。也正是由于该问题较难解决,基于图像的方法一直没有得到足够关注。

  本文经过研究发现,该问题可以通过两步来解决:首先利用人体信息和衣服信息进行语义分割,然后再在分割信息基础上利用条件模型生成真实感图像。本文提出的整个模型可微调,能够适应各种姿态、外形和衣服颜色。

  本文模型的结果是根据图片生成不同类型、风格着装的新图片,当然也可以“凭空”生成一些具有真实感的着装的照片。经过大量的实验,本文的结果还是非常不错的,同时也证明了纯粹使用图片的方式是可行的。

图1 上图展示了本文算法基于姿态生成的一些真实感着装图片


图2  上图展示了本文模型中的三个模块,(a)主要考虑的是语义分割信息;(b)考虑的是姿态信息;(c)是一个端到端的生成真实感图像的模块。


  Abstract

  We present the first image-based generative model of people in clothing for the full body. We sidestep the commonly used complex graphics rendering pipeline and the need for high-quality 3D scans of dressed people. Instead, we learn generative models from a large image database. 

  The main challenge is to cope with the high variance in human pose, shape and appearance. For this reason, pure image-based approaches have not been considered so far. We show that this challenge can be overcome by splitting the generating process in two parts. First, we learn to generate a semantic segmentation of the body and clothing. Second, we learn a conditional model on the resulting segments that creates realistic images.

  The full model is differentiable and can be conditioned on pose, shape or color. The result are samples of people in different clothing items and styles. The proposed model can generate entirely new people with realistic clothing. In several experiments we present encouraging results that suggest an entirely data-driven approach to people generation is possible.


如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号(paopaorobot_slam)

欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/forums/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com

登录查看更多
4

相关内容

ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。不同于在美国每年召开一次的CVPR和只在欧洲召开的ECCV,ICCV在世界范围内每两年召开一次。ICCV论文录用率非常低,是三大会议中公认级别最高的。ICCV会议时间通常在四到五天,相关领域的专家将会展示最新的研究成果。
基于深度学习的表面缺陷检测方法综述
专知会员服务
84+阅读 · 2020年5月31日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
33+阅读 · 2020年1月10日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
【泡泡一分钟】基于视频修复的时空转换网络
泡泡机器人SLAM
5+阅读 · 2018年12月30日
【泡泡一分钟】基于紧凑模型表示的三维重建(3dv-12)
泡泡机器人SLAM
10+阅读 · 2017年12月7日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Arxiv
4+阅读 · 2017年11月4日
VIP会员
Top
微信扫码咨询专知VIP会员