【导读】机器学习顶会 NeurIPS 2020, 是人工智能领域全球最具影响力的学术会议之一,因此在该会议上发表论文的研究者也会备受关注。据官方统计,今年NeurIPS 2020 共收到论文投稿 9454 篇,接收 1900 篇(其中 oral 论文 105 篇、spotlight 论文 280 篇),论文接收率为 20.1%。NeurIPS 2020已经开完会,小编发现元学习(Meta Learning)相关的接受paper不少,元学习在CV、NLP等各个领域的应用也比较火热,值得研究者们细心学习。

为此,这期小编为大家奉上NeurIPS 2020必读的五篇元学习(Meta Learning)相关论文——少样本视觉推理、持续元学习、异构元学习、元强化学习、元变换网络学习

NeurIPS 2020 Accepted Papers : https://proceedings.neurips.cc/paper/2020

NIPS2020VRL、NIPS2020DA、NIPS2020CI、ICLR2020CI、ICML2020CI

1. Few-shot Visual Reasoning with Meta-analogical Contrastive Learning

作者:Youngsung Kim, Jinwoo Shin, Eunho Yang, Sung Ju Hwang

摘要:尽管人类可以通过仅观察几个样本来解决需要逻辑推理的视觉难题,但它需要对大量样本进行训练,以使用最新的深度推理模型来在同一任务上获得相似的性能。在这项工作中,我们提出通过类比推理来解决这样的少样本抽象视觉推理问题,并且这是人类具有的识别两组数据之间结构或关系相似性的独特能力。具体来说,我们构造了两个不同问题实例的类比和非模拟训练对。后者是通过对原始问题(以前的问题)进行扰动或改组来创建的。然后,我们通过强制类比元素尽可能相似,同时最小化非类比元素之间的相似性,来提取成对的两个域中元素之间的结构关系。这种类比性的对比学习可以有效地学习给定抽象推理任务的关系表示。我们在RAVEN数据集上验证了我们的方法,该方法的性能优于最新方法,并且在缺乏训练数据时获得了更大的收益。我们进一步对具有不同属性的相同任务对我们的对比学习模型进行元学习,并表明它可以推广到具有未知属性的相同视觉推理问题。

网址: https://proceedings.neurips.cc/paper/2020/hash/c39e1a03859f9ee215bc49131d0caf33-Abstract.html

2. La-MAML: Look-ahead Meta Learning for Continual Learning

作者:Gunshi Gupta, Karmesh Yadav, Liam Paull

摘要:持续学习(continual learning)问题涉及训练模型,然而这些模型的能力有限,无法在一组顺序到达的未知数量的任务上表现良好。虽然元学习在减少新旧任务之间的干扰方面显示出巨大的潜力,但当前的训练过程往往很慢或离线,并且对许多超参数敏感。在这项工作中,我们提出了Look-ahead MAML(La-MAML),这是一种基于快速优化的元学习算法,用于在线持续学习,并有带少量的情节记忆。在元学习更新中对每个参数的学习率进行调制,使我们能够与以前有关超梯度和元下降的工作建立联系。与传统的基于先验的方法相比,该方法提供了一种更灵活,更有效的方法来减轻灾难性遗忘问题。La-MAML的性能优于其他基replay,基于先验和基于元学习的方法,并且可在现实世界中的视觉分类基准上持续学习。

网址: https://proceedings.neurips.cc/paper/2020/hash/85b9a5ac91cd629bd3afe396ec07270a-Abstract.html

3. Meta-learning from Tasks with Heterogeneous Attribute Spaces

作者:Tomoharu Iwata, Atsutoshi Kumagai

摘要:我们提出了一种异构元学习方法,该方法在具有各种属性空间的任务上训练模型,从而可以解决在给定标记实例的情况下属性空间与训练任务不同的未知任务(unseen tasks)。尽管已经提出了许多元学习方法,但是它们假定所有训练任务和目标任务共享相同的属性空间,并且当任务之间的属性大小不同时,它们将不适用。我们的模型使用推理网络从几个标记实例中推断每个属性和每个响应的潜在表示。然后,使用预测网络推断的表示来预测未标记实例的响应。即使属性和响应的大小在各个任务之间都不同,属性和响应表示也使我们能够基于属性和响应的特定于任务的属性进行预测。在我们使用合成数据集和OpenML中的59个数据集进行的实验中,我们证明了在使用具有异构属性空间的任务训练后,我们提出的方法可以预测新任务中给定标记实例的响应。

网址: https://proceedings.neurips.cc/paper/2020/hash/438124b4c06f3a5caffab2c07863b617-Abstract.html

4. Model-based Adversarial Meta-Reinforcement Learning

作者:Zichuan Lin, Garrett Thomas, Guangwen Yang, Tengyu Ma

摘要:元强化学习(meta-RL)旨在从多个训练任务中有效地学习适应不可知测试任务的能力。尽管取得了成功,但已知现有的meta-RL算法对任务分配的变化很敏感。当测试任务分配与训练任务分配不同时,性能可能会大大降低。为了解决这个问题,本文提出了基于模型的对抗性元强化学习(AdMRL),旨在最大程度地降低最差情况的次优差距(最优回报与算法在自适应后获得的回报之间的差异),并使用基于模型的方法来处理一系列任务中的所有任务。我们提出了一个极小极大目标,并通过在学习固定任务的动力学模型与寻找当前模型的对抗任务(在该任务中,模型诱导的策略最大程度次优)之间交替进行优化。假设任务已参数化,我们通过隐函数定理推导了次最优性相对于任务参数的梯度公式,并展示了如何通过共轭梯度法和新颖的方法有效地实现梯度估计器--REINFORCE估算器。我们在几个连续的控制基准上评估了我们的方法,并证明了它在所有任务的最坏情况下的性能,对分发任务的概括能力以及在训练和测试时间样本效率方面相对于现有技术的有效性。

网址:

https://proceedings.neurips.cc/paper/2020/hash/73634c1dcbe056c1f7dcf5969da406c8-Abstract.html

5. Node Classification on Graphs with Few-Shot Novel Labels via Meta Transformed Network Embedding

作者:Lin Lan, Pinghui Wang, Xuefeng Du, Kaikai Song, Jing Tao, Xiaohong Guan

摘要:我们研究了具有少量新颖标签的图节点分类问题,它具有两个独特的特性:(1)图中出现了新颖标签;(2)新颖标签仅具有几个用于训练分类器的代表性节点。对这个问题的研究具有指导意义,并且与许多应用相对应,例如对在线社交网络中只有几个用户的新组建的推荐。为了解决这个问题,我们提出了一种新颖的元变换网络嵌入框架(MetaTNE),该框架由三个模块组成:(1)一个结构模块根据图结构为每个节点提供潜在的表示。(2)元学习模块以元学习的方式捕获图结构和节点标签之间的关系作为先验知识。此外,我们引入了一种嵌入转换函数,以弥补元学习直接使用的不足。从本质上讲,可以将元学习的先验知识用于促进少样本新颖标签的学习。(3)优化模块采用简单而有效的调度策略来训练上述两个模块,并在图结构学习和元学习之间取得平衡。在四个真实数据集上进行的实验表明,MetaTNE相对于最新方法具有巨大的改进。

网址: https://proceedings.neurips.cc/paper/2020/hash/c055dcc749c2632fd4dd806301f05ba6-Abstract.html

成为VIP会员查看完整内容
27

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
40+阅读 · 2020年12月1日
近期必读的六篇 NeurIPS 2020【因果推理】相关论文和代码
专知会员服务
71+阅读 · 2020年10月31日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
近期必读的六篇 ICML 2020【域自适应】相关论文
专知会员服务
46+阅读 · 2020年9月29日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
近期必读的六篇 ICML 2020【因果推理】相关论文
专知会员服务
87+阅读 · 2020年9月8日
CrossTransformers: spatially-aware few-shot transfer
Arxiv
1+阅读 · 2021年2月17日
Arxiv
1+阅读 · 2021年2月14日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
135+阅读 · 2018年10月8日
VIP会员
相关VIP内容
专知会员服务
40+阅读 · 2020年12月1日
近期必读的六篇 NeurIPS 2020【因果推理】相关论文和代码
专知会员服务
71+阅读 · 2020年10月31日
近期必读的七篇NeurIPS 2020【对比学习】相关论文和代码
专知会员服务
65+阅读 · 2020年10月20日
近期必读的六篇 ICML 2020【域自适应】相关论文
专知会员服务
46+阅读 · 2020年9月29日
近期必读的六篇 ICML 2020【对比学习】相关论文
专知会员服务
56+阅读 · 2020年9月15日
近期必读的六篇 ICML 2020【因果推理】相关论文
专知会员服务
87+阅读 · 2020年9月8日
相关论文
CrossTransformers: spatially-aware few-shot transfer
Arxiv
1+阅读 · 2021年2月17日
Arxiv
1+阅读 · 2021年2月14日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
135+阅读 · 2018年10月8日
微信扫码咨询专知VIP会员