手工设计深度神经网络需要花费大量的时间和精力。这促使了神经结构搜索(NAS)技术的发展,以实现这种设计的自动化。然而,NAS算法往往是缓慢和昂贵的;他们需要训练大量的候选网络,为搜索过程提供信息。如果我们能从网络的初始状态部分预测其训练的准确性,这就可以缓解。在这项工作中,我们检查了未经过训练的网络中数据点之间的激活重叠,并激励它如何能给出一个有用的衡量指标,以表明网络的训练性能。我们将这种方法整合到一个简单的算法中,该算法允许我们无需任何训练就能在单个GPU上搜索强大的网络,并在NAS-Bench-101、NAS-Bench-201、NATS-Bench和Network Design Spaces上验证其有效性。我们的方法可以很容易地与更昂贵的搜索方法相结合;我们研究了一种规则化进化搜索的简单适应。复制我们实验的代码可以在https://github.com/BayesWatch/nas-without-training上找到。

https://www.zhuanzhi.ai/paper/d285ad674ffd1ea0882baac1f1cf5437

成为VIP会员查看完整内容
18

相关内容

专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
20+阅读 · 2021年8月23日
专知会员服务
22+阅读 · 2021年8月18日
专知会员服务
24+阅读 · 2021年7月11日
专知会员服务
10+阅读 · 2021年3月21日
《神经架构搜索NAS》最新进展综述
专知会员服务
54+阅读 · 2020年8月12日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
33+阅读 · 2020年7月5日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
谷歌 MorphNet:让你的神经网络更小但更快
机器学习算法与Python学习
5+阅读 · 2019年4月18日
CVPR2019 | 专门为卷积神经网络设计的训练方法:RePr
人工智能前沿讲习班
6+阅读 · 2019年3月7日
AutoML 和神经架构搜索初探
AI研习社
3+阅读 · 2018年8月5日
干货|浅谈神经网络中激活函数的设计
机器学习研究会
5+阅读 · 2017年10月28日
Arxiv
0+阅读 · 2021年11月5日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
8+阅读 · 2020年6月15日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
4+阅读 · 2018年9月6日
VIP会员
相关VIP内容
专知会员服务
20+阅读 · 2021年8月26日
专知会员服务
20+阅读 · 2021年8月23日
专知会员服务
22+阅读 · 2021年8月18日
专知会员服务
24+阅读 · 2021年7月11日
专知会员服务
10+阅读 · 2021年3月21日
《神经架构搜索NAS》最新进展综述
专知会员服务
54+阅读 · 2020年8月12日
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
33+阅读 · 2020年7月5日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
相关资讯
相关论文
Arxiv
0+阅读 · 2021年11月5日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
8+阅读 · 2020年6月15日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
4+阅读 · 2018年9月6日
微信扫码咨询专知VIP会员