神经架构优化(NAO):新的神经架构搜索(NAS)算法

2018 年 12 月 16 日 AI研习社

本文为 AI 研习社编译的技术博客,原标题 :

Discovering the best neural architectures in the continuous space | Microsoft Research

作者 |  Fei Tian

翻译 | 孙稚昊2

校对 | 酱番梨       整理 | 菠萝妹

原文链接:

https://www.microsoft.com/en-us/research/blog/discovering-the-best-neural-architectures-in-the-continuous-space/

注:本文的相关链接请点击文末【阅读原文】进行访问


如果你是一名深度学习实践者,你可能发现自己经常会遇到同一个关键问题:我应该为现在的任务选择哪种神经网络架构?这个决定取决于多种因素以及很多其他问题的答案。我应该给这一层选择什么操作----卷积,深度可分卷积,或者最大池化?卷积层应该选多大的核?3*3 还是 1*1 ? 还有哪个节点该拿来作为循环神经网络(RNN)节点的输入?这些决定对架构的成功至关重要。如果你既是神经网络建模也是手头特定任务的专家,你可能很容易找到答案。但如果你在某一方面的经验有限呢?

这种情况下,你可能会尝试神经架构搜索(NAS),这是一种自动的过程,另一个机器学习算法根据以往观察到的架构和他们的表现,来指导创建更好的架构。多亏了NAS,我们可以发现在被广泛使用的公开数据集,比如 ImageNet, 上表现最好的神经网络架构,且不需要人工干预。

然而现存的自动设计神经网络架构的方法 -- 通常基于增强学习或者进化算法 -- 需要在指数级增长的离散空间中做搜索,我的同伴和我在微软亚洲研究院机器学习组 设计了一种简化的,更有效的方法,基于连续空间内的优化。有了我们的新方法,叫做 神经架构优化 (NAO),我们利用基于梯度的方法在更紧密的空间中做优化。这项工作参加了今年的 神经信息处理系统会议 (NeurIPS)


  NAO的关键组件

驱动NAO进行在连续空间中基于梯度的优化,是靠以下三个组件:

  • 一个把离散的神经网络架构转化为连续值向量的编码器,也叫嵌入模型

  • 一个结果预估函数,它把向量作为输入,并产生一个数值作为架构的表现 (比如,准确率)

  • 一个把连续值向量恢复成网络架构的解码器

  • 这三个组件是一起训练的。我们完成训练后,从一个架构x 开始,我们用编码器E把x 转化为向量表示 ex , 再通过结果预估函数f给的梯度方向,把ex 转化为新的嵌入 ex` (如绿线表示)。既然我们在做梯度上升,只要步长够小,我们就能保证 f(ex`) >= f(ex)。最后,我们用decoder D把ex`转化为离散的架构 x`。这样,我们得到了一个可能更好的架构 x`.通过不断这样更新架构。我们得到了最终的架构,它应该有最好的表现。

 图1: NAO的流程


  有有限的资源达到好的结果

我们做了后续的实验来验证NAO自动发现最好神经架构的有效性。表1(如下)展示了不同卷积神经网络(CNN)架构在CIFAR-10图片分类数据集上的表现,这些架构由不同 NAS 算法生成。从表中我们可以看出,用NAO发现的网络得到了最低的错误率。另外,将NAO和权重共享机制结合起来(叫做 NAO-WS),我们得到了显著的搜索速度提升。权重共享可以降低网络架构搜索的计算成本,它通过让多种网络结构共用同一份参数来做到。在我们的实验中,我们用一块图像处理器(GPU),在7个小时内得到了一个CNN架构,达到了3.53的错误率。通过权重共享,我们不必从头训练其它不同的神经网络。

表2(如下)总结了PTB语言模型的结果。越低的Perplexity表示更好的表现。又一次,我们用NAO来找到的RNN架构取得了好结果,而且只用有限的计算资源。

通过在连续空间上的优化,NAO得到了更好的结果,相比于现有的NAS方法,他们直接在离散架构空间中搜索。至于未来的应用,我们计划用NAO来为其它重要的AI任务搜索架构,比如神经机器翻译。同样重要的,更简单高效的自动神经架构设计,可以使机器学习技术为各阶段的人所用。


表1:CIFAR-10分类结果

表2:PTB语言模型结果


想要继续查看该篇文章相关链接和参考文献?

长按链接点击打开或点击底部【阅读原文】:

https://ai.yanxishe.com/page/TextTranslation/1335


AI研习社每日更新精彩内容,观看更多精彩内容:

五个很厉害的 CNN 架构

一文带你读懂计算机视觉

用Pytorch做深度学习(第一部分)

Python高级技巧:用一行代码减少一半内存占用


等你来译:

(Python)3D人脸处理工具face3d

25个能放到数据湖中的语音研究数据集

如何在数据科学面试中脱颖而出 

Apache Spark SQL以及DataFrame的基本概念,架构以及使用案例

【AI求职百题斩】已经悄咪咪上线啦,还不赶紧来答题?!

点击 阅读原文 查看本文更多内容

登录查看更多
3

相关内容

专知会员服务
59+阅读 · 2020年3月19日
CMU博士论文:可微优化机器学习建模
专知会员服务
52+阅读 · 2019年10月26日
深度学习算法与架构回顾
专知会员服务
77+阅读 · 2019年10月20日
自动机器学习:最新进展综述
专知会员服务
115+阅读 · 2019年10月13日
概述自动机器学习(AutoML)
人工智能学家
18+阅读 · 2019年8月11日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
AutoML 和神经架构搜索初探
极市平台
9+阅读 · 2018年8月8日
干货 | AutoML 和神经架构搜索初探
AI科技评论
3+阅读 · 2018年8月1日
机器学习必知的8大神经网络架构
七月在线实验室
7+阅读 · 2018年4月26日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
A Multi-Objective Deep Reinforcement Learning Framework
Arxiv
3+阅读 · 2018年6月24日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
3+阅读 · 2018年4月9日
VIP会员
相关VIP内容
专知会员服务
59+阅读 · 2020年3月19日
CMU博士论文:可微优化机器学习建模
专知会员服务
52+阅读 · 2019年10月26日
深度学习算法与架构回顾
专知会员服务
77+阅读 · 2019年10月20日
自动机器学习:最新进展综述
专知会员服务
115+阅读 · 2019年10月13日
相关资讯
概述自动机器学习(AutoML)
人工智能学家
18+阅读 · 2019年8月11日
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
AutoML 和神经架构搜索初探
极市平台
9+阅读 · 2018年8月8日
干货 | AutoML 和神经架构搜索初探
AI科技评论
3+阅读 · 2018年8月1日
机器学习必知的8大神经网络架构
七月在线实验室
7+阅读 · 2018年4月26日
相关论文
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
A Multi-Objective Deep Reinforcement Learning Framework
Arxiv
3+阅读 · 2018年6月24日
Arxiv
6+阅读 · 2018年4月24日
Arxiv
3+阅读 · 2018年4月9日
Top
微信扫码咨询专知VIP会员