In this paper, we propose BNAS-v2 to further improve the efficiency of NAS, embodying both superiorities of BCNN simultaneously. To mitigate the unfair training issue in BNAS, we employ continuous relaxation strategy to make each edge of cell in BCNN relevant to all candidate operations, so that the gradient-based optimization algorithm of BNAS-v2 can update every possible path simultaneously rather than the single sampled one in BNAS. Moreover, the continuous relaxation strategy relaxes the choice of a candidate operation as a softmax over all predefined operations. However, continuous relaxation leads to another issue named performance collapse, where those weight-free operations are prone to be selected by the search strategy. For this consequent issue, two solutions are given: 1) we propose Confident Learning Rate (CLR) that considers the confidence of gradient for architecture weights update, increasing with the training time of over-parameterized BCNN; 2) we introduce the combination of partial channel connections and edge normalization that also can improve the memory efficiency further. Moreover, we denote differentiable BNAS (i.e. BNAS with continuous relaxation) as BNAS-D, BNAS-D with CLR as BNAS-v2-CLR, and partial-connected BNAS-D as BNAS-v2-PC. Experimental results on CIFAR-10 and ImageNet show that 1) BNAS-v2 delivers state-of-the-art search efficiency on both CIFAR-10 (0.05 GPU days that is 4x faster than BNAS) and ImageNet (0.19 GPU days); and 2) the proposed CLR is effective to alleviate the performance collapse issue in both BNAS-D and vanilla differentiable NAS framework.


翻译:在本文中,我们提议BNAS- v2 来进一步提高NAS的效率,同时体现BNN的两种优势。为了减轻BNAS中的不公平培训问题,我们采用持续放松战略,使BNAS-v2的每个细胞边缘都与所有候选业务相关。这样,BNAS-v2的梯度优化算法可以同时更新每一种可能的道路,而不是BNAS的单一抽样路径。此外,持续放松战略会放松选择候选人操作,将其作为所有预定操作的软模件。然而,持续放松导致另一个名为性能崩溃的问题,即这些无重力操作很容易被搜索战略所选择。对此,我们给出了两个解决方案:(1) 我们提出“稳性学习率”,认为建筑权重更新的梯度具有信心,随着超分度崩溃的BNAS;(2) 我们引入部分频道连接和边缘正常状态的组合,可以进一步提高记忆效率。 此外,我们在BNAS-NAS(即BNAS-NER-OLS 和BNAS-C-C-C-C-C-C-C-C-C-C-LS 和BNA-C-C-C-C-C-LIS 显示BRS-C-C-C-C-C-C-C-C-C-C-C-C-NA和O-NA-C-C-C-NA和O-NA-C-NA-NA-O-S 和O-O-O-O-NA和O-O-NA-O-S 显示部分结果显示B-C-C-C-C-C-C-C-S-C-S 和B-S-S-S-S-C-C-C-C-C-S-C-C-C-C-C-C-C-S-S-S-S-O-O-S 和B-S-S-C-S-S-S-S-S-S-S-S-S-S-S-S-O-O-O-O-O-O-O-S-S-S-S-S-S-S-O-I-S-O-O-O-O-O-I-O-O-O-O-

0
下载
关闭预览

相关内容

让 iOS 8 和 OS X Yosemite 无缝切换的一个新特性。 > Apple products have always been designed to work together beautifully. But now they may really surprise you. With iOS 8 and OS X Yosemite, you’ll be able to do more wonderful things than ever before.

Source: Apple - iOS 8
最新《神经架构搜索NAS》报告,附46页ppt与视频
专知会员服务
34+阅读 · 2020年12月30日
【DeepMind】强化学习教程,83页ppt
专知会员服务
148+阅读 · 2020年8月7日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
70+阅读 · 2020年8月2日
GANs最新进展,30页ppt,GANs: the story so far
专知会员服务
42+阅读 · 2020年8月2日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
57+阅读 · 2020年5月9日
专知会员服务
59+阅读 · 2020年3月19日
已删除
将门创投
7+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
1+阅读 · 2021年3月16日
Arxiv
0+阅读 · 2021年3月15日
Arxiv
6+阅读 · 2020年10月8日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
7+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
1+阅读 · 2021年3月16日
Arxiv
0+阅读 · 2021年3月15日
Arxiv
6+阅读 · 2020年10月8日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
12+阅读 · 2018年9月5日
Arxiv
3+阅读 · 2018年6月24日
Top
微信扫码咨询专知VIP会员