We approach self-supervised learning of image representations from a statistical dependence perspective, proposing Self-Supervised Learning with the Hilbert-Schmidt Independence Criterion (SSL-HSIC). SSL-HSIC maximizes dependence between representations of transformations of an image and the image identity, while minimizing the kernelized variance of those representations. This framework yields a new understanding of InfoNCE, a variational lower bound on the mutual information (MI) between different transformations. While the MI itself is known to have pathologies which can result in learning meaningless representations, its bound is much better behaved: we show that it implicitly approximates SSL-HSIC (with a slightly different regularizer). Our approach also gives us insight into BYOL, a negative-free SSL method, since SSL-HSIC similarly learns local neighborhoods of samples. SSL-HSIC allows us to directly optimize statistical dependence in time linear in the batch size, without restrictive data assumptions or indirect mutual information estimators. Trained with or without a target network, SSL-HSIC matches the current state-of-the-art for standard linear evaluation on ImageNet, semi-supervised learning and transfer to other classification and vision tasks such as semantic segmentation, depth estimation and object recognition. Code is available at https://github.com/deepmind/ssl_hsic .


翻译:我们从统计依赖的角度出发,从自我监督的角度学习图像表达方式,提出与Hilbert-Schmidt独立标准(SSL-HSIC-HSIC)进行自我监督的学习。 SL-HSIC将图像转换的表示方式与图像身份的表示方式之间的依赖性最大化,同时将这些表示方式的内分泌差异最小化。这个框架可以产生对InfoNCE的新理解,即不同转变之间对相互信息(MI)的调低约束。虽然MI本身已知有可能导致学习毫无意义的表示方式的病理,但其约束性要好得多:我们显示它暗含着接近SSL-HSIC(与一个略微不同的常规化工具 ) 。 SLS-HSIC-HSIC 也让我们深入了解BYOL, 一种没有负面的 SSLSLF方法, 因为SSL-HSSIC类似地学习本地样本。SSL-HSIC 允许我们直接优化时间线性统计依赖性统计,没有限制性的数据假设或间接的相互信息估测测算。用或没有目标网络训练或没有目标网络,SLSLSIC-HSIC匹配当前状态的SICV-OD-SLV-SLOD-SLOLOD-SL 和SLISD-SLOD-SLOD-SD-SOD-SD-SLOVD-SLOD-SOD-SAL 和SLOD-SLOD-SD-SD-SD-SD-SD-SD-SVD-S-S-S-S-SD-S-S-SD-S-S-S-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SD-SLVD-SD-SD-SAL-SD-SD-SAL-SL-SL-SL-SL-S-S-S-S-S-S-S-SD-SD-SL-L-S-S-SL-L-S-SL-L-

0
下载
关闭预览

相关内容

【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
72+阅读 · 2020年4月24日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
143+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Learning with Neighbor Consistency for Noisy Labels
Arxiv
0+阅读 · 2022年2月4日
Arxiv
7+阅读 · 2021年11月11日
Arxiv
7+阅读 · 2018年5月23日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员