在本文中,我们提出参数对比学习(PaCo)来处理长尾识别。通过理论分析,我们发现监督对比损失在高频类别上有偏置的倾向,从而增加了不平衡学习的难度。我们引入一组参数类学习中心,从优化的角度进行再平衡。进一步,我们分析了平衡设置下的PaCo损失。我们的分析表明,当更多的样本被拉到相应的中心时,PaCo可以自适应地增强同类样本的推近强度,并有利于较难的示例学习。长尾CIFAR、ImageNet、Places和iNaturalist 2018上的实验显示了长尾识别的新技术。在全ImageNet上,使用PaCo损失训练的模型在各种ResNet骨干上超过了有监督的对比学习。我们的代码可在https://github.com/jiequancui/ Parametric-Contrastive-Learning.

成为VIP会员查看完整内容
32

相关内容

通过潜在空间的对比损失最大限度地提高相同数据样本的不同扩充视图之间的一致性来学习表示。对比式自监督学习技术是一类很有前途的方法,它通过学习编码来构建表征,编码使两个事物相似或不同
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
32+阅读 · 2021年3月7日
[NeurIPS 2020] 球形嵌入的深度度量学习
专知会员服务
16+阅读 · 2020年11月8日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
专知会员服务
28+阅读 · 2020年10月2日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
72+阅读 · 2020年4月24日
【MIT】硬负样本的对比学习
专知
13+阅读 · 2020年10月15日
【NeurIPS2020】无限可能的联合对比学习
专知
3+阅读 · 2020年10月2日
【CVPR2020】跨模态哈希的无监督知识蒸馏
专知
5+阅读 · 2020年6月25日
用 SimCLR 提高自监督与半监督学习效果
谷歌开发者
5+阅读 · 2020年5月12日
Arxiv
6+阅读 · 2021年9月24日
Arxiv
5+阅读 · 2020年10月21日
Arxiv
31+阅读 · 2020年9月21日
Arxiv
7+阅读 · 2020年3月1日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
Arxiv
9+阅读 · 2018年5月22日
VIP会员
相关VIP内容
专知会员服务
23+阅读 · 2021年9月16日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
32+阅读 · 2021年3月7日
[NeurIPS 2020] 球形嵌入的深度度量学习
专知会员服务
16+阅读 · 2020年11月8日
【MIT】硬负样本的对比学习
专知会员服务
39+阅读 · 2020年10月14日
专知会员服务
28+阅读 · 2020年10月2日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
72+阅读 · 2020年4月24日
相关论文
微信扫码咨询专知VIP会员