Neural Architecture Search with Random Labels 现有的主流NAS算法通过子网络在验证集上的预测性能来进行模型搜索,但是在参数共享机制下,验证集上的预测性能和模型真实性能存在较大的差异。我们首次打破了这种基于预测性能进行模型评估的范式,从模型收敛速度的角度来进行子网络评估并假设:模型收敛速度越快,其对应的预测性能越高。

基于模型收敛性框架,我们发现模型收敛性与图像真实标签无关,便进一步提出使用随机标签进行超网络训练的新NAS范式-RLNAS。RLNAS在多个数据集(NAS-Bench-201,ImageNet)以及多个搜索空间(DARTS,MobileNet-like)进行了验证,实验结果表明RLNAS仅使用随机标签搜索出来的结构便能达到现有的NAS SOTA的水平。RLNAS初听比较反直觉,但其出乎意料的好结果为NAS社区提出了一组更强的基线,同时也进一步启发了对NAS本质的思考。 https://www.zhuanzhi.ai/paper/73ff2aa2c413ba1035d0c205173ca72a

成为VIP会员查看完整内容
10

相关内容

专知会员服务
29+阅读 · 2021年4月5日
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
11+阅读 · 2021年3月25日
【CVPR2021】用于目标检测的通用实例蒸馏
专知会员服务
23+阅读 · 2021年3月22日
专知会员服务
61+阅读 · 2021年3月12日
专知会员服务
20+阅读 · 2021年3月9日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
专知会员服务
26+阅读 · 2021年3月5日
《神经架构搜索NAS》最新进展综述
专知会员服务
54+阅读 · 2020年8月12日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
【CVPR2021】细粒度多标签分类
专知
44+阅读 · 2021年3月8日
重磅!MobileNetV3 来了!
计算机视觉life
4+阅读 · 2019年5月11日
AutoML 和神经架构搜索初探
极市平台
9+阅读 · 2018年8月8日
Arxiv
0+阅读 · 2021年5月13日
Arxiv
0+阅读 · 2021年5月12日
Arxiv
0+阅读 · 2021年5月10日
Arxiv
0+阅读 · 2021年2月19日
Arxiv
8+阅读 · 2021年1月28日
Arxiv
8+阅读 · 2020年10月12日
VIP会员
相关VIP内容
专知会员服务
29+阅读 · 2021年4月5日
专知会员服务
36+阅读 · 2021年3月29日
专知会员服务
11+阅读 · 2021年3月25日
【CVPR2021】用于目标检测的通用实例蒸馏
专知会员服务
23+阅读 · 2021年3月22日
专知会员服务
61+阅读 · 2021年3月12日
专知会员服务
20+阅读 · 2021年3月9日
【CVPR2021】自监督几何感知
专知会员服务
45+阅读 · 2021年3月6日
专知会员服务
26+阅读 · 2021年3月5日
《神经架构搜索NAS》最新进展综述
专知会员服务
54+阅读 · 2020年8月12日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
相关资讯
微信扫码咨询专知VIP会员