相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等

【导读】小样本学习是一类重要的机器学习方法,旨在解决数据缺少的情况下如何训练模型的问题。在CVPR2020的Tutorial,来自valeo.ai的学者给了Spyros Gidaris关于小样本学习的最新教程报告。

在过去的几年里,基于深度学习的方法在图像理解问题上取得了令人印象深刻的效果,如图像分类、目标检测或语义分割。然而,真实字计算机视觉应用程序通常需要模型能够(a)通过很少的注释例子学习,(b)不断适应新的数据而不忘记之前的知识。不幸的是,经典的监督深度学习方法在设计时并没有考虑到这些需求。因此,计算机视觉的下一个重大挑战是开发能够解决这方面现有方法的重要缺陷的学习方法。本教程将介绍实现这一目标的可能方法。小样本学习(FSL)利用先验知识,可以快速地泛化到只包含少量有监督信息的样本的新任务中。

https://annotation-efficient-learning.github.io/

目录内容:

  • 概述
  • 小样本学习种类
  • 度量学习
  • 带记忆模块的元学习
  • 基于优化的元学习
  • 学习预测模型参数
  • 无遗忘小样本学习
  • 结论

成为VIP会员查看完整内容
0
166

【导读】南洋理工大学 Xavier Bresson 博士在ICLR2020上做了关于图神经网络与图像处理,微分方程的报告 ,目标是利用图像处理中的非线性DEs来定义一个图神经网络架构。

成为VIP会员查看完整内容
0
28

【导读】图神经网络依然是研究焦点之一。最近在WWW2020的DL4G@WWW2020论坛,斯坦福大学Jure Leskovec副教授介绍了图神经网络研究最新进展,包括GNN表现力、预训练和公开图神经网络基准等。值得关注。

近年来,深度学习领域关于图神经网络(Graph Neural Networks,GNN)的研究热情日益高涨,图网络已经成为各大深度学习顶会的研究热点。GNN 处理非结构化数据时的出色能力使其在网络数据分析、推荐系统、物理建模、自然语言处理和图上的组合优化问题方面都取得了新的突破。但是,大部分的图网络框架的建立都是基于研究者的先验或启发性知识,缺少清晰的理论支撑。

https://www.aminer.cn/dl4g_www2020

Jure Leskovec

图网络领域的大牛Jure Leskovec,是斯坦福大学计算机学院的副教授,也是图表示学习方法 node2vec 和 GraphSAGE 作者之一。在谷歌学术搜索(Google Scholar)上,Jure拥有接近4.5万的论文引用数量,H指数为84。

下载链接: 链接: https://pan.baidu.com/s/1gg9qvsjZVp3nGB-0TSkv_w 提取码: mtth

成为VIP会员查看完整内容
0
98

【导读】国际万维网大会(The Web Conference,简称WWW会议)是CCF-A类会议。WWW 2020将于2020年4月20日至4月24日在中国台湾台北举行。本届会议共收到了1129篇长文投稿,录用217篇长文,录用率为19.2%。这周会议已经虚拟召开。图深度学习研讨会(DL4G)展示结构化数据的嵌入和表示学习以及图深度学习的最新进展。来自DeepMind的研究科学家Petar Veličković给了关于《图表示学习算法推理》的报告,共46页ppt,详述了神经图算法推理的前沿研究进展,涵盖GNN基准、泛化、多任务学习和算法发现。

图表示学习算法推理是个新的和令人兴奋的方向,寻求理解和使用GNNs的表达能力建模经典算法。其潜在的影响是巨大的: 为元学习和搜索等任务提供可扩展的解决方案,帮助理论计算机科学中的新发现,以及严格地对GNNs进行基准测试。

Petar Veličković 是DeepMind研究科学家。他拥有剑桥大学博士学位。他目前的研究兴趣广泛地涉及设计操作复杂结构数据(如图)的神经网络架构,以及它们在算法推理和计算生物学中的应用。他在机器学习领域(ICLR、NeurIPS-W、ICML-W)和生物医学领域和期刊(生物信息学、PLOS One、JCB、PervasiveHealth)发表了他的研究成果。特别是,他是Graph Attention Networks(一种流行的图卷积层)和Deep Graph Infomax(一种用于图形的可伸缩的本地/全局无监督学习管道)的第一作者。他的研究已经在ZDNet等媒体上发表。此外,他还在ICLR 2019年和NeurIPS 2019年联合组织了关于图形表示学习的研讨会。

https://petar-v.com/

成为VIP会员查看完整内容
0
61
小贴士
相关VIP内容
专知会员服务
41+阅读 · 2020年6月8日
专知会员服务
28+阅读 · 2020年6月6日
因果图,Causal Graphs,52页ppt
专知会员服务
123+阅读 · 2020年4月19日
专知会员服务
127+阅读 · 2020年4月12日
专知会员服务
102+阅读 · 2020年3月10日
专知会员服务
79+阅读 · 2020年2月1日
相关论文
Hyper-Parameter Optimization: A Review of Algorithms and Applications
Tong Yu,Hong Zhu
12+阅读 · 2020年3月12日
Invariance-Preserving Localized Activation Functions for Graph Neural Networks
Luana Ruiz,Fernando Gama,Antonio G. Marques,Alejandro Ribeiro
4+阅读 · 2019年11月5日
Kamran Kowsari,Kiana Jafari Meimandi,Mojtaba Heidarysafa,Sanjana Mendu,Laura E. Barnes,Donald E. Brown
11+阅读 · 2019年6月25日
Bryan Wilder,Eric Ewing,Bistra Dilkina,Milind Tambe
4+阅读 · 2019年5月31日
Joaquin Vanschoren
109+阅读 · 2018年10月8日
Meta-Learning with Latent Embedding Optimization
Andrei A. Rusu,Dushyant Rao,Jakub Sygnowski,Oriol Vinyals,Razvan Pascanu,Simon Osindero,Raia Hadsell
6+阅读 · 2018年7月16日
Kevin Scaman,Francis Bach,Sébastien Bubeck,Yin Tat Lee,Laurent Massoulié
7+阅读 · 2018年6月1日
Caglar Gulcehre,Misha Denil,Mateusz Malinowski,Ali Razavi,Razvan Pascanu,Karl Moritz Hermann,Peter Battaglia,Victor Bapst,David Raposo,Adam Santoro,Nando de Freitas
7+阅读 · 2018年5月24日
Juan Pavez,Héctor Allende,Héctor Allende-Cid
5+阅读 · 2018年5月23日
Mohammadhosein Hasanbeig,Alessandro Abate,Daniel Kroening
5+阅读 · 2018年4月22日
Top