Existing portrait matting methods either require auxiliary inputs that are costly to obtain or involve multiple stages that are computationally expensive, making them less suitable for real-time applications. In this work, we present a light-weight matting objective decomposition network (MODNet) for portrait matting in real-time with a single input image. The key idea behind our efficient design is by optimizing a series of sub-objectives simultaneously via explicit constraints. In addition, MODNet includes two novel techniques for improving model efficiency and robustness. First, an Efficient Atrous Spatial Pyramid Pooling (e-ASPP) module is introduced to fuse multi-scale features for semantic estimation. Second, a self-supervised sub-objectives consistency (SOC) strategy is proposed to adapt MODNet to real-world data to address the domain shift problem common to trimap-free methods. MODNet is easy to be trained in an end-to-end manner. It is much faster than contemporaneous methods and runs at 67 frames per second on a 1080Ti GPU. Experiments show that MODNet outperforms prior trimap-free methods by a large margin on both Adobe Matting Dataset and a carefully designed photographic portrait matting (PPM-100) benchmark proposed by us. Further, MODNet achieves remarkable results on daily photos and videos. Our code and models are available at https://github.com/ZHKKKe/MODNet, and the PPM-100 benchmark is released at https://github.com/ZHKKKe/PPM.


翻译:现有肖像成交方法要么需要成本高昂的辅助性投入才能获得,要么涉及计算成本昂贵的多个阶段,使其更不适于实时应用。在这项工作中,我们提出了一个轻巧的编配目标分解网络(MODNet),用于实时配对,使用单一输入图像。我们高效设计的关键理念是通过明确的限制同时优化一系列子目标。此外,MODNet包括两种提高模型效率和稳健性的新颖技术。首先,一个高效的Atrous空间金字虫集合模块(e-ASPPP)被引入了用于混装多种规模功能,以便进行语义性网络评估。第二,一个自上式的子目标一致性网络(MODNet) 用于实时配对配配,用一个单一输入图像图像图像图像图像图像图像。MODNet很容易通过大型的SmartKMM-MLBS 数据库,在Smartal-MMMM-MLS-M-SDM-SDM-MLFS-GM-SDM-M-Siral-Siralfreablement Stal-M-GM-MM-M-M-M-M-M-MLD-MD-GM-M-M-Sild-MLD-M-M-SD-M-Sild-SD-SD-SD-SD-SD-SD-SD-GMLM-LM-SD-SD-SD-SD-SD-SD-LD-LD-LDMDM-LM-GM-SDM-GM-C-GM-LM-SDM-S-S-S-C-SDM-FM-GM-LM-G-SD-G-C-LM-G-LM-LM-GM-LM-CFDMDMDM-SDM-SDM-LM-G-G-G-LM-LM-LM-LM-LM-LM-LM-LM-LM-LM-M-S-S-S-M-M-M-M-M-M-F

0
下载
关闭预览

相关内容

专知会员服务
109+阅读 · 2020年3月12日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Salient Objects in Clutter
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月16日
Arxiv
0+阅读 · 2022年4月14日
Arxiv
11+阅读 · 2019年4月15日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
4+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员