本文提出了一种基于无监督学习的视频目标分割方法。与之前的工作不同,我们的公式允许在完全卷积的情况下直接学习密集特征表示。我们依靠统一的网格采样来提取一组锚点,并训练我们的模型来在视频间和视频内消除它们之间的歧义。然而,训练这样一个模型的朴素方案会得到一个退化解。我们提出了一种简单的正则化方案来防止这种情况,该方案适应了分割任务对相似变换的等方差特性。我们的训练目标实现高效,并表现出快速的训练趋同。在已建立的VOS基准上,我们的方法超过了以前工作的分割精度,尽管使用的训练数据和计算能力明显更少。

https://www.zhuanzhi.ai/paper/0ef8bdd09f3e46584b83f6236ca799fb

成为VIP会员查看完整内容
14

相关内容

现实生活中常常会有这样的问题:缺乏足够的先验知识,因此难以人工标注类别或进行人工类别标注的成本太高。很自然地,我们希望计算机能代我们完成这些工作,或至少提供一些帮助。根据类别未知(没有被标记)的训练样本解决模式识别中的各种问题,称之为无监督学习
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
【AAAI2022】基于对比时空前置学习的视频自监督表示
专知会员服务
18+阅读 · 2021年12月19日
【NeurIPS 2021】基于潜在空间能量模型的可控和组分生成
专知会员服务
15+阅读 · 2021年10月23日
专知会员服务
12+阅读 · 2021年5月29日
【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
专知会员服务
44+阅读 · 2021年1月31日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】利用先验知识对场景图进行分类
专知会员服务
60+阅读 · 2020年12月3日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【泡泡图灵智库】用于单目深度估计的深度有序回归网络
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
【重磅】自适应无监督学习的特征提取方法
中国自动化学会
7+阅读 · 2018年2月6日
Arxiv
7+阅读 · 2021年11月11日
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
TensorMask: A Foundation for Dense Object Segmentation
Arxiv
10+阅读 · 2019年3月28日
Arxiv
6+阅读 · 2018年6月21日
Arxiv
10+阅读 · 2018年2月17日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关VIP内容
【AAAI2022】用于视觉常识推理的场景图增强图像-文本学习
专知会员服务
48+阅读 · 2021年12月20日
【AAAI2022】基于对比时空前置学习的视频自监督表示
专知会员服务
18+阅读 · 2021年12月19日
【NeurIPS 2021】基于潜在空间能量模型的可控和组分生成
专知会员服务
15+阅读 · 2021年10月23日
专知会员服务
12+阅读 · 2021年5月29日
【CVPR2021】基于Transformer的视频分割领域
专知会员服务
36+阅读 · 2021年4月16日
专知会员服务
44+阅读 · 2021年1月31日
【AAAI2021】时间关系建模与自监督的动作分割
专知会员服务
36+阅读 · 2021年1月24日
【AAAI2021】利用先验知识对场景图进行分类
专知会员服务
60+阅读 · 2020年12月3日
相关资讯
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
对比自监督学习
深度学习自然语言处理
34+阅读 · 2020年7月15日
【泡泡图灵智库】用于单目深度估计的深度有序回归网络
语义分割+视频分割开源代码集合
极市平台
35+阅读 · 2018年3月5日
【重磅】自适应无监督学习的特征提取方法
中国自动化学会
7+阅读 · 2018年2月6日
相关论文
Arxiv
7+阅读 · 2021年11月11日
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
TensorMask: A Foundation for Dense Object Segmentation
Arxiv
10+阅读 · 2019年3月28日
Arxiv
6+阅读 · 2018年6月21日
Arxiv
10+阅读 · 2018年2月17日
Arxiv
5+阅读 · 2016年10月24日
微信扫码咨询专知VIP会员