ICML2019最佳论文奖新鲜发布,Google、ETH、MaxPlanck、剑桥成最终赢家

【导读】正在美国加州举办的,第36届国际机器学习大会(ICML)公布了本届会议最佳论文奖结果,分别是来自苏黎世联邦理工大学-MaxPlanck研究所-谷歌大脑的《挑战无监督分离式表示学习常见假设》以及剑桥大学的《稀疏变分高斯过程回归的收敛速度》。


论文便捷下载:

请关注专知公众号(点击上方蓝色专知关注

  • 后台回复“ICML2019BP” 就可以获取ICML最佳论文的下载链接~ 


介绍:


根据公开数据显示,今年ICML共提交论文数3424篇,录用774,录取率为22.6%。


1、Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations


本篇论文为苏黎世联邦理工学院、MaxPlanck智能系统研究所、谷歌大脑联合出品。


论文中提到,理解高维数据并以无监督方式实现特定的表示学习,仍然是深度学习中的关键挑战,解决这些问题的一种方法是通过分离式表示,捕获在特定场景下的独立特征,使得任意单个特征改变,仍会保持其他特征不受影响,如果这一需求成功完成,将被用于设计现实世界中的机器学习系统(如自动驾驶汽车或机器人等),以解开对象及其周围环境的不同因素和属性,从而使提取出的知识能够泛化至先前未被观察到的样本信息。虽然近年来无监督方法已经被用于好奇心驱动的探索模型、抽象推理、视觉概念学习、强化学习等问题中,但仍然难以了解本领域中不同方法的有效性及其局限性。


在本篇文章中,我们对无监督分离式表示学习进行了大规模的评估工作,并针对一些常见的假设进行了细致分析,以便对未来的工作方向提供一些建设性的改进建议。该评估工作实在7个不同的数据集中训练了12000个模型,并涵盖了最重要的方法和评估指标。重要的是,作者还发布了本研究中的相关代码及一万多个预训练模型,由此产生的工具包(disentanglement_lib),允许研究人员基于此进行自己的研究工作,并轻松重现我们的研究工作。

本文从理论和实践两个维度进行了细致验证,具体的贡献点可概括如下:

  • 从理论上:如果没有考虑学习方法与数据集所产生的归纳偏置,那么基本无法实现分离式表示的无监督学习过程。

  • 从实践上:在大规模可重复的实验研究中,分析了当前主流方法和其归纳偏置,该研究采用了完善的无监督分离式实验方案,本文实现了六种最新的无监督分离式学习方法,并在7个数据集中训练了12000个模型。

  • 发布了disentanglement_lib,用于供其他研究人员重现我们的工作。

  • 挑战了分离式无监督学习中的一些共识:

    • 观察到表示维度具有一定的相关性

    • 初始种子与超参数似乎比模型选择更加的重要,没有发现任何证据表明模型可以通过无监督方式可靠的学习到分离式表示特征,另外如果无法访问到ground-truth标签,即使能够迁移预训练得到的超参数,似乎也无法得出高质量的结果。

    • 目前没有很强的证据表明,分离式特征对下游任务是有效的,例如通过降低学习的样本复杂性。


2、Rates of Convergence for Sparse Variational Gaussian Process Regression



目前实现的高斯过程后验的变分近似算法,可以有效降低数据集计算成本复杂度。虽然计算成本似乎是随数据集规模线性增长的,但算法真正的复杂性却取决于如何增加诱导变量的数量,来保证一定的近似质量。


研究人员通过KL散度的上界特性来解决这一问题,证明了在高概率情况下,诱导变量数目的增长速度比数据集规模要慢。例如,对于具有D维的整体分布回归,使用流行的Squared Exponential核就足够了。结果表明,随着数据集增长,高斯过程后验可以真正近似地逼近目标,并为如何在连续学习场景中增加诱导变量提供具体的规则。


参考地址:


Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations

  • 论文地址:

    http://proceedings.mlr.press/v97/locatello19a/locatello19a.pdf

  • Google博客

    https://ai.googleblog.com/2019/04/evaluating-unsupervised-learning-of.html

Rates of Convergence for Sparse Variational Gaussian Process Regression

  • 论文地址:

    https://arxiv.org/abs/1903.03571

-END-

专 · 知

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎登录www.zhuanzhi.ai,注册登录专知,获取更多AI知识资料!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询技术商务合作~

专知《深度学习:算法到实战》课程全部完成!550+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

展开全文
Top
微信扫码咨询专知VIP会员