ICLR2019少样本学习新思路:利用转导(Transductive)和标签传播

【导读】ICLR2019最新论文《Learning to Propagate Labels: Transductive Propagation Network for Few-shot Learning》阅读笔记


授权转载于知乎:

https://zhuanlan.zhihu.com/p/55111343

文章链接:http://www.zhuanzhi.ai/paper/c365df686ef370f0302902cf29660d67

代码链接:github.com/csyanbin/TPN


1. Motivation: 少样本学习问题为什么要用转导(Transductive)?

目前大部分深度学习的算法依赖于大量的标准数据,这些数据的采集、标注需要耗费大量的人力成本。然而在标注数据比较少的情况下,深度学习的应用和效果都受到了限制。与之相反,人类具有从少量数据中学习的能力,例如给一个小朋友看过几张苹果的图片之后,他就可以很快学会“苹果”这个类别。

少样本学习(few-shot learning)的目标是在已知类别(Seen Class)训练一个分类模型,使它能够在只有少量数据的未知类别(Unseen Class)上面具有很好的泛化性能。少样本学习面临两个重要的问题:(1)已知类别和未知类别之间没有交集,导致它们的数据分布差别很大,不能直接通过训练分类器和微调(finetune)的方式得到很好的性能;(2)未知类别只有极少量数据(每个类别1或者5个训练样本),导致分类器学习不可靠。

对于第一个问题,Matching Networks提出了episodic training的策略。一个episode就是一个少样本学习的子任务,包含训练集和测试集。这里的episode类似于深度学习中的mini-batch的概念。
对于第二个问题,目前解决方法较少。我们提出利用转导(Transductive)的思想,拿到所有无标注数据,建立权重图,得到全部预测结果,如下图:

转导推理(Transduction) vs 归纳推理(Induction)

我们提出的转导方法将全部无标注数据和有标注数据一起建立一个无向图,通过标签传播的 方式得到全部无标注数据的标签。相比较归纳推理(Inductive)方法,我们可以利用无标注数据的分布实现更好的预测。

2. Method: 如何进行标签传播

算法流程

这篇文章提出了转导传播网络(Transductive Propagation Network),主要分成四个模块:

  学习一个样本相关的图结构,针对每一个子任务(episode)我们学习一个单独的图结构,图的权重根据不同的任务和数据动态调整。在第3)步中,我们利用了标签传播算法存在解析解的良好特性,使每个子任务的求解一步完成,而不是像其他方法比如MAML那样,需要多次迭代。2)和3)两个步骤,体现了我们论文题目中的"Learning to Propagate Label"的思想。

3. Experiment:算法性能

我们的方法在常见的miniImagenet和tieredImagenet数据集上,取得了最佳性能。对比算法包括MAML(ICML2017),Prototypical Network(NIPS2017)和Relation Network(CVPR2018)等。

miniImagenet
tieredImagenet

同时我们的算法还可以进行半监督(semi-supervised) 少样本学习,同样取得了非常好的性能,具体可以参考我们的论文。

4. Future:未来方向

本文提供了在训练数据较少的情况下,如何更好地利用无标注数据的一个思路。

如何改进图的结构,有没有比标签传播更好的方式,这些都是未来可以研究很探讨的方向。


-END-

专 · 知

   专知《深度学习: 算法到实战》课程正在开讲! 中科院博士为你讲授! 欢迎扫码报名学习!


请加专知小助手微信(扫一扫如下二维码添加),咨询《深度学习:算法到实战》参团限时优惠报名~

欢迎微信扫一扫加入专知人工智能知识星球群,获取专业知识教程视频资料和与专家交流咨询!

请PC登录www.zhuanzhi.ai或者点击阅读原文,注册登录专知,获取更多AI知识资料!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

展开全文
Top
微信扫码咨询专知VIP会员