In this paper, we propose an end-to-end framework for instance segmentation. Based on the recently introduced DETR [1], our method, termed SOLQ, segments objects by learning unified queries. In SOLQ, each query represents one object and has multiple representations: class, location and mask. The object queries learned perform classification, box regression and mask encoding simultaneously in an unified vector form. During training phase, the mask vectors encoded are supervised by the compression coding of raw spatial masks. In inference time, mask vectors produced can be directly transformed to spatial masks by the inverse process of compression coding. Experimental results show that SOLQ can achieve state-of-the-art performance, surpassing most of existing approaches. Moreover, the joint learning of unified query representation can greatly improve the detection performance of DETR. We hope our SOLQ can serve as a strong baseline for the Transformer-based instance segmentation. Code is available at https://github.com/megvii-research/SOLQ.


翻译:在本文中,我们建议了一个端到端的框架,例如分割。根据最近推出的DETR[1],我们的方法,称为 SOLQ,通过学习统一查询,部分对象。在 SOLQ,每个查询代表一个对象,并有多个表达方式:类别、位置和掩码。所学对象查询同时以统一的矢量形式进行分类、框回归和掩码编码。在培训阶段,编码的遮罩矢量由原始空间面罩的压缩编码监督。推断时间,产生的遮罩矢量可以通过反压缩编码过程直接转换为空间遮罩。实验结果显示SOLQ能够达到最新性能,超过大多数现有方法。此外,联合学习统一查询说明可以大大改进DETR的检测性能。我们希望我们的SOLQ能够作为基于变压器的分解的强大基线。代码可在https://github.com/mevi-research/SOLQ上查阅。

8
下载
关闭预览

相关内容

【NeurIPS2021】SOLQ:基于学习查询的物体分割
专知会员服务
9+阅读 · 2021年11月9日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
160+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
8+阅读 · 2021年6月1日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
7+阅读 · 2020年10月9日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年6月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
8+阅读 · 2021年6月1日
Arxiv
14+阅读 · 2021年3月10日
Arxiv
7+阅读 · 2020年10月9日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
6+阅读 · 2018年12月10日
Arxiv
6+阅读 · 2018年6月21日
Top
微信扫码咨询专知VIP会员