无监督多对象表示学习依赖于归纳偏差来指导发现以对象为中心的表示。然而,我们观察到,学习这些表征的方法要么是不切实际的,因为长时间的训练和大量的记忆消耗,要么是放弃了关键的归纳偏见。在这项工作中,我们引入了EfficientMORL,一个有效的无监督学习框架的对象中心表示。我们证明了同时要求对称性和解缠性所带来的优化挑战实际上可以通过高成本的迭代摊销推理来解决,通过设计框架来最小化对它的依赖。我们采用两阶段的方法进行推理:首先,分层变分自编码器通过自底向上的推理提取对称的解缠表示,其次,轻量级网络使用自顶向下的反馈来改进表示。在训练过程中所采取的细化步骤的数量根据课程减少,因此在测试时零步骤的模型达到了99.1%的细化分解性能。我们在标准多目标基准上演示了强大的对象分解和解缠,同时实现了比以前最先进的模型快一个数量级的训练和测试时间推断。

https://www.zhuanzhi.ai/paper/f29b88ee56208601f787cc791e3c7414

成为VIP会员查看完整内容
14

相关内容

专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
12+阅读 · 2021年5月29日
专知会员服务
22+阅读 · 2021年5月23日
专知会员服务
80+阅读 · 2021年5月10日
【WSDM2021】通过学习中间监督信号改进多跳知识库问答
专知会员服务
10+阅读 · 2021年1月14日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
47+阅读 · 2020年9月6日
【ICML2020】通过神经引导的A*搜索学习逆合成设计
专知会员服务
16+阅读 · 2020年8月18日
【KDD2020】复杂异构网络中的高阶聚类
专知
8+阅读 · 2020年8月27日
论文浅尝 - ICLR2020 | 通过神经逻辑归纳学习有效地解释
开放知识图谱
5+阅读 · 2020年6月17日
在稀疏和欠明确奖励中学习泛化
谷歌开发者
6+阅读 · 2019年3月20日
Arxiv
6+阅读 · 2021年6月4日
Arxiv
8+阅读 · 2021年5月9日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年2月4日
Arxiv
4+阅读 · 2017年1月2日
VIP会员
相关VIP内容
专知会员服务
21+阅读 · 2021年6月26日
专知会员服务
12+阅读 · 2021年5月29日
专知会员服务
22+阅读 · 2021年5月23日
专知会员服务
80+阅读 · 2021年5月10日
【WSDM2021】通过学习中间监督信号改进多跳知识库问答
专知会员服务
10+阅读 · 2021年1月14日
【CIKM2020】学习表示解决可解释推荐系统
专知会员服务
47+阅读 · 2020年9月6日
【ICML2020】通过神经引导的A*搜索学习逆合成设计
专知会员服务
16+阅读 · 2020年8月18日
相关论文
Arxiv
6+阅读 · 2021年6月4日
Arxiv
8+阅读 · 2021年5月9日
Arxiv
23+阅读 · 2018年10月24日
Arxiv
9+阅读 · 2018年2月4日
Arxiv
4+阅读 · 2017年1月2日
微信扫码咨询专知VIP会员