CVPR2022 | MLP才是无监督学习比监督学习迁移性能好的关键因素

2022 年 3 月 18 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨王逸舟@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/481881853
编辑丨极市平台

极市导读

 

本文从“回看监督学习/无监督学习的差距分析”,“新视角下的监督学习/无监督学习迁移能力差距”,“SL-MLP: MLP带来的有趣现象”,“对实验现象的理论分析”,“SL-MLP的迁移性能”五个章节,讲一下如何挖掘监督学习的迁移能力,以及怎样的特征才更适应下游任务。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

在这里和大家分享一下我们被CVPR 2022录用的工作" Revisiting the Transferability of Supervised Pretraining: an MLP Perspective"。

Arxiv: https://arxiv.org/abs/2112.00496

单位:浙江大学,悉尼大学,商汤,上海交大清源研究院

开篇定性,作为一篇学术宣传稿,不需要受制于固定的格式,因此我们希望和大家讨论的更加自由放飞一些,分享有趣的现象和背后的洞见(insight),而不是简单的堆砌各种实验结果和”由此可得”。

迁移能力(transferability)的定义很简单,模型在相同数据下,如何在各种下游任务表现的更好。形象的来说,就是门派内有着大量的弟子(pretraining methods),基于门派内共同的修炼资源(pretraining data),修炼着不同的功法(with different supervision),以期让自己在未来在不同类型的江湖比武(various downstream tasks, various dataset)上都能拔得头筹。而我们想要讲述的是,一个资质平凡的监督学习(supervised learning method,SL),修着最普通的功法(the cross-entropy loss),通过“自我审视”(revisit)和取长补短,总结经验教训(theoretical analysis),在各种迁移任务上成功击败早已声名鹊起的后起之秀(unsupervised learning methods, USL),最终脱颖而出的故事。

相比于之前的对监督学习和无监督学习的分析,这次针对迁移性能的revisit,从监督学习和无监督学习在训练时结构上的差异出发,指出了之前被大家忽视的MLP projector是其中的关键因素

我们从“回看监督学习/无监督学习的差距分析”,“新视角下的监督学习/无监督学习迁移能力差距”,“SL-MLP: MLP带来的有趣现象”,“对实验现象的理论分析”,“SL-MLP的迁移性能”五个章节,讲一下如何挖掘监督学习的迁移能力,以及怎样的特征才更适应下游任务。

回看监督学习/无监督学习的差距分析

首先,明确我们的目标:找到监督学习(SL)在迁移能力上真正劣于无监督学习(USL)的原因。只有找到监督学习真正的短板,才能针对性补强,从而完成逆袭。

围绕这一目标,现有的分析和实践性质的文章,主要从两个角度出发:(1)无监督放弃了标签中的语义信息[1,2],避免模型在训练过程中对标签的过拟合,从而更好保留了instance-specific的特征,使其对下游任务的适应性更好。(2)Contrastive loss的设计让模型学到了对下游任务更友好的中低层的特征[3,4]。

但是,监督学习方案和现有无监督学习方案在结构上的不同,却一直被大家忽视。从SimCLR[5]开始,在encoder后引入一个multi-layer perceptron(MLP) projector的方案,就被无监督学习广泛的用于提升当前数据集的表征能力。MLP带来的提升是那么的简单有效,以至于我们当前在设计对比式的无监督学习方案时,都会默认的加入MLP。从而导致在对监督学习和无监督学习迁移性比较上出现了结构上的unfair,得到了不够准确的结论。比如,在提升监督学习迁移能力的方案中,SupContrast[4]在把contrastive loss引入监督学习的同时,MLP projector也被一并引入,但在[3]的进一步分析比较中,却单一地把性能提升归功于contrastive loss设计上的优势。

而实际上,通过这次的revist,我们发现之前被大家忽视的MLP projector才是其中的关键因素

新视角下的监督学习/无监督学习迁移能力差距

找到了一个新的视角后,要做的自然是用实验验证这个视角观察的可信度。具体来说,就是要首先从模型结构的视角上凸显出监督学习与无监督学习的迁移能力差距。

Concept generalization task[6]给我们提供了一个值得参考的方案,并指出各种模型之间的迁移性差异随着pretraining dataset和evaluation dataset之间的语义差距(semantic gap)。而ImageNet作为一个包含多种语义的分类数据集,能被划分成语义差距较大的两类——652类(主要是生物类)的预训练集(pre-D),以及358类(工具类)的测试集(eval-D)。让所有的模型都在pre-D上预训练,再在eval-D上进行linear eval从而体现各种方案间的transferability gap。

(左)Stage-wise eval的实验示意 (右)现有SL、USL方案及其MLP variant的stage-wise eval结果

既然我们从一个结构差异(MLP)的视角出发,我们自然就需要按照encoder层级结构的划分,做一个stage-wise的测试。Stage-wise evaluation的结果是出乎意料的:

(1) 监督学习(SL)在前4个stage有着比无监督学习(BYOL,MoCov1,MoCOv2)更高的迁移能力,说明标签中的语义信息能够增益中底层特征的迁移能力;

(2) BYOL和MoCov2在stage4到5保持了迁移能力的提升,而SL和MoCov1则出现了性能的下降,而这两组实验中一个关键的差异就是:BYOL和MoCov2在stage5之后插入了一个只用于预训练的MLP层,而SL和MoCov1没有

(3) 对MoCov1、MoCov2、BYOL分别进行with/without MLP的ablation后,发现在无监督方案上增加MLP能提升其迁移性能,并避免出现类似MoCov1的stage4到5的迁移能力下降

说句题外话,实际上可能存在一些其他的非线性结构同样能增加迁移性能,但仅仅从MLP projector的角度出发,也能给我们带来更多有趣的结论。

SL-MLP: MLP带来的有趣现象

把竞争对手无监督学习在迁移能力上的情况剖析的差不多了,下一步自然就是修炼学到的知识。具体来说,参照无监督学习常用的做法,在预训练时,我们在SL的encoder和分类层之间加入了一个MLP,并在迁移到下游任务时丢弃掉,仅使用encoder进行迁移。

SL-MLP的训练和测试方式

我们在以下的实验中默认使用与BYOL完全相同的MLP projector,给定encoder得到的图像特征 , MLP projector将其映射为 ,其中的MLP选择与BYOL相同的结构(2个fc,1个bn,1个relu),具体为

这种简单的设计带来了十分有效且有趣的现象。

现象1. SL-MLP避免了监督学习(SL)在stage4-5上的迁移能力下降。

用从无监督学习那偷师来的MLP修炼自身后,监督学习(SL)成功弥补了自己在stage-wise eval上的最大劣势,让stage5的存在真正对下游任务有了增益。

现象2. MLP增大了预训练模型的intra-class variation。

所谓修炼,只有不在单一方面过度拘于小节,才能适应广泛的任务要求。不是一味专注在减小intra-class variation,才能让模型保留更丰富的特征。

比较SL、SupContrast、BYOL(及其MLP变体)在预训练集的特征分布,带有MLP的方案拥有更大的intra-class variation。参照LDA[7],模型在数据集 上的discriminative ratio可以用 来表示,其中 分别代表模型特征的类间距离和类内距离。因此 与pre-D上的intra-class variation反相关.

BYOL和SL-MLP在 比SL低,但是在eval-D的linear eval显著的比SL高。此外,随着SL的 一直上升,在eval-D上的性能先上升后下降(210 epoch后)。那么,这是不是说明了我们在做SL迁移任务的时候,并不应该一味的追求在训练集上的精度呢?

(左)Linear eval on eval-D (右) Discriminative ratio of pre-D

现象3. MLP拉近了pre-D和eval-D特征分布间的距离

所谓修炼,除了与他人竞争水平高低,更重要的在于内心对万事万物的理解是否有所精进。测试精度只能说明方法的最终结果,而学习到的特征分布,才真正代表了增加了MLP后的监督学习,对语义的表征做出了哪些改变。

根据Jennifer Wortma对于domain adaption的分析[8],拉近预训练域pre-D和迁移域eval-D特征分布间的距离对于针对迁移域eval-D的迁移学习是有帮助的。我们用蓝色系和橙色系代表可视化预训练域pre-D和迁移域eval-D上不同类别。SL的预训练域pre-D特征彼此分散,且与迁移域eval-D的特征产生较大的距离。相对的,SL-MLP和BYOL在保持了预训练域pre-D特征可分的基础上,预训练域pre-D和迁移域eval-D的特征在特征空间中混合的更好。

直觉上来说,我们可以用特征在pre-D和eval-D之间的混合程度Feature mixtureness(两个set中不同类中心周围topk中同set的比例),来定量计算pre-D和eval-D特征分布间的距离:

虽然SL,SL-MLP,BYOL在开始时的Feature mixtureness都较高,随着训练的进行,SL专注在预训练域pre-D上的表征,预训练域pre-D和迁移域eval-D特征分布间的距离开始拉远,而SL-MLP和BYOL的预训练域pre-D和迁移域eval-D特征分布间的距离则一直保持在一个很高的状态。自然,SL-MLP和BYOL就更容易适应新的迁移数据集。

现象4. MLP能减低特征冗余

所谓修炼,就是去除内部的芜杂。对于模型来说,则是特征通道间的冗余度,避免重复受限于当前的任务。

在Barlow Twins[9]中提到,特征通道间的高冗余会限制特征的表征能力,我们用Resnet50输出的2048-d特征维度间的Pearson相关度来衡量特征冗余。SL-MLP,BYOL以及MoCov1 w/ MLP,相比他们对应的无MLP变体,有更高的迁移性能与更小的特征冗余度,说明了MLP能减低特征冗余。

R代表模型的特征冗余度

对实验现象的理论分析

在发现了这些有趣的观察之后,我们当然需要对所学到的经验进行一次归纳总结,通过理论分析提炼出成功的关键,为我们研究下一门针对transferability的功法打好基础。

实际上,我们可以总结pre-D的discriminative ratio 和eval-D的discriminative ratio 间的关系满足如下的趋势并给出理论证明。

Insights of transferability. 更高的 ϕ(I^eval)代表更高的迁移性能. 更高的 ϕ(I^pre)代表pre-D上更小的intra-class variation.

用数学的语言来说:

给定 ,当 时, ,其中t是一个正的阈值,并与pre-D和eval-D之间的特征分布距离成反比。t的计算以及详细的公式证明我们在论文的supplementary部分给出。

上述理论说明了 ,

(1) 当我们在pre-D上一直优化其辨别能力直到超过一个固定的阈值t之后,进一步优化pre-D会导致模型在eval-D上的迁移能力下降,

(2)当pre-D和eval-D之间的语义差距更大时(此时,在相同的模型下两者的特征分布距离容易更大),t会更小。

那么在应对transfer learning时,

(1)在设计模型结构或者优化函数时,为了更好的迁移能力,我们不能把模型在预训练集的intra-class variation优化的过小,导致模型对于预训练集的overfit。(可以考虑增加MLP来完成)

(2)当被迁移域eval-D和预训练域pre-D的语义差距(semantic gap)更大时,我们需要保留更大的intra-class variation来做应对。

SL-MLP的迁移性能

学成归来,自当从容应对各种挑战,不卑不亢,一鸣惊人。

我们在concept generalization task任务上验证了SL-MLP对多个模型结构的效果。SL-MLP对SL有明显的提升,甚至在相同epoch数下超过了BYOL的迁移性能。同样的,MLP在Swin-ViT上也有一样的效果。在Swin-ViT上的提升较低主要是因为不加MLP的Swin-ViT已经有了和SL-MLP类似的高混合程度(Feature mixtureness)。

我们在cross domain的其他分类数据集上验证了MLP对于SL-MLP和SupContrast的重要性。在linear eval,finetune和few-shot learning任务上,增加MLP都表现出了提升,说明MLP相比于contrastive loss对于有监督的迁移能力提升更加重要。

从ImageNet-1K迁移到cross domain的分类数据集

SL-MLP在检测任务上也能观察到性能的提升。SL-MLP在较少epoch下的性能甚至超过了用更多epoch的无监督方案。

Mask R-CNN on COCO

尾声

至此,监督学习通过研究自身与无监督学习之间存在的结构差异,成功掌握了一项提升transferability的关键因素(MLP),用SL-MLP证明了自身有取得与无监督相似或更好的结果的实力。但是,未来的道路还在不断延伸,其他有效简单的非线性模块,亦或是把knowledage直接化用到supervision里,修炼的道路没有尽头。

参考文献

  1. Nanxuan Zhao, Zhirong Wu, Rynson WH Lau, and Stephen Lin. What makes instance discrimination good for transfer learning? arXiv preprint arXiv:2006.06606, 2020.
  2. Linus Ericsson, Henry Gouk, and Timothy M Hospedales. How well do self-supervised models transfer? In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 5414–5423, 2021
  3. Ashraful Islam, Chun-Fu Chen, Rameswar Panda, Leonid Karlinsky, Richard Radke, and Rogerio Feris. A broad study on the transferability of visual representations with contrastive learning. arXiv preprint arXiv:2103.13517, 2021.
  4. Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, and Dilip Krishnan. Supervised contrastive learning. arXiv preprint arXiv:2004.11362, 2020.
  5. Ting Chen, Simon Kornblith, Mohammad Norouzi, and Geoffrey Hinton. A simple framework for contrastive learning of visual representations. In International conference on machine learning, pages 1597–1607. PMLR, 2020
  6. Mert Bulent Sariyildiz, Yannis Kalantidis, Diane Larlus, and Karteek Alahari. Concept generalization in visual representation learning. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pages 9629–9639, 2021
  7. John Blitzer, Koby Crammer, Alex Kulesza, Fernando Pereira, and Jennifer Wortman. Learning bounds for domain adaptation. Advances in Neural Information Processing Systems, 20:129–136, 2007
  8. Jure Zbontar, Li Jing, Ishan Misra, Yann LeCun, and St´ephane Deny. Barlow twins: Self-supervised learning via redundancy reduction. arXiv preprint arXiv:2103.03230, 2021.

公众号后台回复“数据集”获取60+深度学习数据集下载~

△点击卡片关注极市平台,获取 最新CV干货
极市干货
数据集资源汇总: 10个开源工业检测数据集汇总 21个深度学习开源数据集分类汇总
算法trick 目标检测比赛中的tricks集锦 从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks
技术综述: 一文弄懂各种loss function 工业图像异常检测最新研究总结(2019-2020)


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~   
登录查看更多
0

相关内容

监督学习是指:利用一组已知类别的样本调整分类器的参数,使其达到所要求性能的过程,也称为监督训练或有教师学习。 监督学习是从标记的训练数据来推断一个功能的机器学习任务。训练数据包括一套训练示例。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。这就要求学习算法是在一种“合理”的方式从一种从训练数据到看不见的情况下形成。
【CVPR2022】带噪声标签的少样本学习
专知会员服务
38+阅读 · 2022年4月15日
【CVPR2022】 Dropout在图像超分任务中的重煥新生
专知会员服务
18+阅读 · 2022年3月5日
【博士论文】开放环境下的度量学习研究
专知会员服务
45+阅读 · 2021年12月4日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
41+阅读 · 2020年7月29日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
CVPR 2022 | 自动化所新作速览!(下)
中国科学院自动化研究所
1+阅读 · 2022年3月17日
Dropout视角下的MLM和MAE:一些新的启发
PaperWeekly
1+阅读 · 2021年12月6日
从ICCV 2021看域泛化与域自适应最新研究进展
PaperWeekly
0+阅读 · 2021年10月28日
ICML2021 | Self-Tuning: 如何减少对标记数据的需求?
夕小瑶的卖萌屋
0+阅读 · 2021年7月27日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
10+阅读 · 2021年11月10日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
11+阅读 · 2021年2月17日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Deep Face Recognition: A Survey
Arxiv
17+阅读 · 2019年2月12日
Arxiv
135+阅读 · 2018年10月8日
VIP会员
相关VIP内容
【CVPR2022】带噪声标签的少样本学习
专知会员服务
38+阅读 · 2022年4月15日
【CVPR2022】 Dropout在图像超分任务中的重煥新生
专知会员服务
18+阅读 · 2022年3月5日
【博士论文】开放环境下的度量学习研究
专知会员服务
45+阅读 · 2021年12月4日
专知会员服务
88+阅读 · 2021年6月29日
专知会员服务
38+阅读 · 2021年5月16日
专知会员服务
41+阅读 · 2020年7月29日
【CVPR2020-港中文】 图像识别中的自注意力探索
专知会员服务
55+阅读 · 2020年4月29日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
10+阅读 · 2021年11月10日
Arxiv
16+阅读 · 2021年7月18日
Arxiv
25+阅读 · 2021年3月20日
Arxiv
11+阅读 · 2021年2月17日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Deep Face Recognition: A Survey
Arxiv
17+阅读 · 2019年2月12日
Arxiv
135+阅读 · 2018年10月8日
Top
微信扫码咨询专知VIP会员