Google研究院提出FixMatch,简单粗暴却极其有效的半监督学习方法,附14页PDF下载

2020 年 1 月 24 日 专知

【导读】半监督学习旨在利用未标记数据改进模型的性能,它可以一定程度上减少模型训练对大量人工标注的依赖。近期,Google研究院提出了一个简单粗暴地半监督学习方法FixMatch,它在各种标准的半监督学习基准测试中都取得了最先进的性能。


半监督学习(Semi-supervised Learning, SSL)提供了一种利用未标记数据改进模型性能的有效方法。Google研究院近期在论文《FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence》中提出了一种简单粗暴却极其有效的半监督学习方法FixMatch。


论文展示了将两种常见半监督学习方法(一致性正则化和伪标签)简单结合后产生的威力。论文提出的FixMatch方法首先利用模型为经过弱增强的无标签图像生成伪标签。对于给定的图像,只有在模型产生高可信预测时,才保留伪标签。然后,该模型被训练来预测当输入同一图像的强增强版本时的伪标签。

尽管这个模型很简单,但论文展示了FixMatch在各种标准的半监督学习基准测试中都取得了最先进的性能,包括在CIFAR-10上使用250个标签获得94.93%的准确率,使用40个标签(相当于每个类只有4个标签)获得88.61%的准确率。由于FixMatch与现有的性能更差的半监督学习方法有许多相似之处,论文中进行了大量的消去测试,以梳理出对FixMatch成功最重要的实验因素。


论文开源了代码:

  • https: //github.com/google-research/fixmatch


简单介绍一下上面提到的两种常见半监督学习方法:

  • 一致性正则化(Consistency Regularization):它是当前许多最先进的半监督学习算法的重要组成部分。一致性正则化依赖以下假设来利用未标注数据:当输入扰动版本的图像时,模型应该输出相似的预测。

  • 伪标签(Pseudo-labeling): 它的核心思想是利用模型自身来为未标注数据生成标签。该方法几十年前就被提出。伪标签特别指使用“硬”标签(模型输出中概率最高的标签)并且只保留概率大于指定阈值的标签。


FixMatch通过将这两种已有的方法进行简单的组合,取得了惊人的效果:


更多详细内容可以参考论文原文《FixMatch: Simplifying Semi-Supervised Learning with Consistency and Confidence》:

  • https://arxiv.org/pdf/2001.07685.pdf


完整PPT下载


请关注专知公众号(点击上方蓝色专知关注
  • 后台回复“FMSSL” 就可以获取完整PDF的下载链接~ 


论文截图如下所示:

参考链接:

  • https://arxiv.org/pdf/2001.07685.pdf


-END-
专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取更多AI知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询
请加专知小助手微信(扫一扫如下二维码添加),获取专知VIP会员码,加入专知人工智能主题群,咨询技术商务合作~
点击“阅读原文”,了解注册使用专知
登录查看更多
4

相关内容

【牛津大学&DeepMind】自监督学习教程,141页ppt
专知会员服务
177+阅读 · 2020年5月29日
【Google AI】开源NoisyStudent:自监督图像分类
专知会员服务
54+阅读 · 2020年2月18日
一文综述经典的深度文本分类方法
AI100
12+阅读 · 2019年6月8日
一文读懂深度学习文本分类方法
AINLP
15+阅读 · 2019年6月6日
超强半监督学习 MixMatch
极市平台
8+阅读 · 2019年5月22日
该如何对「半监督学习算法」实际性应用进行评估?
炼数成金订阅号
7+阅读 · 2018年4月27日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Arxiv
5+阅读 · 2019年10月11日
Arxiv
5+阅读 · 2018年5月1日
Arxiv
8+阅读 · 2018年1月19日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
Top
微信扫码咨询专知VIP会员