In order to further improve the search efficiency of Neural Architecture Search (NAS), we propose B-DARTS, a novel pipeline combining broad scalable architecture with Confident Learning Rate (CLR). In B-DARTS, Broad Convolutional Neural Network (BCNN) is employed as the scalable architecture for DARTS, a popular differentiable NAS approach. On one hand, BCNN is a broad scalable architecture whose topology achieves two advantages compared with the deep one, mainly including faster single-step training speed and higher memory efficiency (i.e. larger batch size for architecture search), which are all contributed to the search efficiency improvement of NAS. On the other hand, DARTS discovers the optimal architecture by gradient-based optimization algorithm, which benefits from two superiorities of BCNN simultaneously. Similar to vanilla DARTS, B-DARTS also suffers from the performance collapse issue, where those weight-free operations are prone to be selected by the search strategy. Therefore, we propose CLR, that considers the confidence of gradient for architecture weights update increasing with the training time of over-parameterized model, to mitigate the above issue. Experimental results on CIFAR-10 and ImageNet show that 1) B-DARTS delivers state-of-the-art efficiency of 0.09 GPU day using first order approximation on CIFAR-10; 2) the learned architecture by B-DARTS achieves competitive performance using state-of-the-art composite multiply-accumulate operations and parameters on ImageNet; and 3) the proposed CLR is effective for performance collapse issue alleviation of both B-DARTS and DARTS.


翻译:为了进一步提高神经结构搜索(NAS)的搜索效率,我们提议B-DARTS,这是一个将宽度可扩展建筑与自信学习率相结合的新管道。在B-DARTS,宽度革命神经网络(BARNN)被用作DARTS的可扩展架构,这是一个广度可扩展的NAS方法。一方面,BARNN是一个广度可扩展的架构,其地形与深层结构相比有两个优势,主要包括更快的单步培训速度和更高的记忆效率(即建筑搜索的批量规模更大),所有这些都有助于提高NAS的搜索效率参数。另一方面,DARTS通过基于梯度的优化算法发现了最佳架构,这同时得益于DARTS的两个优势。 与Vanilla DARTS相似, B-DARTS还受到业绩崩溃问题的影响,在这些问题上,这些无重量操作很容易被搜索战略所选择。 因此,我们建议CLRRR, 考虑对结构重量更新的信心,随着ARC-DLS的首次培训时间而增加,同时使用GAR-RO-RO-RODS的升级模型,通过B-B-RODRS 10S 的模型显示B-RO-RO-RO-ROD-LS的升级-S-S-S-S-la-la-la-lax-lax-lax-lax-lax-lax-lax-lax-S-lax-S-lax-lax-lax-lax-lax-lax-S-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-s-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-lax-

0
下载
关闭预览

相关内容

专知会员服务
59+阅读 · 2020年3月19日
自动机器学习:最新进展综述
专知会员服务
116+阅读 · 2019年10月13日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
4+阅读 · 2018年9月11日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关VIP内容
专知会员服务
59+阅读 · 2020年3月19日
自动机器学习:最新进展综述
专知会员服务
116+阅读 · 2019年10月13日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
AutoML与轻量模型大列表
专知
8+阅读 · 2019年4月29日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员