Evolutionary Neural Architecture Search (ENAS) has gained attention for automatically designing neural network architectures. Recent studies use a neural predictor to guide the process, but the high computational costs of gathering training data -- since each label requires fully training an architecture -- make achieving a high-precision predictor with { limited compute budget (i.e., a capped number of fully trained architecture-label pairs)} crucial for ENAS success. This paper introduces ENAS with Dual Contrastive Learning (DCL-ENAS), a novel method that employs two stages of contrastive learning to train the neural predictor. In the first stage, contrastive self-supervised learning is used to learn meaningful representations from neural architectures without requiring labels. In the second stage, fine-tuning with contrastive learning is performed to accurately predict the relative performance of different architectures rather than their absolute performance, which is sufficient to guide the evolutionary search. Across NASBench-101 and NASBench-201, DCL-ENAS achieves the highest validation accuracy, surpassing the strongest published baselines by 0.05\% (ImageNet16-120) to 0.39\% (NASBench-101). On a real-world ECG arrhythmia classification task, DCL-ENAS improves performance by approximately 2.5 percentage points over a manually designed, non-NAS model obtained via random search, while requiring only 7.7 GPU-days.


翻译:进化神经架构搜索(ENAS)因能自动设计神经网络架构而受到关注。近期研究采用神经预测器来指导该过程,但由于每个标签都需要对架构进行完整训练,收集训练数据的高计算成本使得在有限计算预算(即设定完整训练的架构-标签对数量上限)下实现高精度预测器成为ENAS成功的关键。本文提出基于双重对比学习的进化神经架构搜索(DCL-ENAS),这是一种采用两阶段对比学习训练神经预测器的新方法。在第一阶段,通过对比自监督学习从神经架构中学习有意义的表征,无需标签。在第二阶段,通过对比学习进行微调,以准确预测不同架构的相对性能而非绝对性能,这足以指导进化搜索。在NASBench-101和NASBench-201基准测试中,DCL-ENAS取得了最高的验证准确率,超越已发表的最强基线0.05%(ImageNet16-120)至0.39%(NASBench-101)。在真实世界的心电图心律失常分类任务中,DCL-ENAS相比通过随机搜索获得的人工设计非NAS模型,性能提升约2.5个百分点,而仅需7.7 GPU天。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年5月28日
AAAI2021 | 学习预训练图神经网络
专知会员服务
116+阅读 · 2021年1月28日
专知会员服务
23+阅读 · 2020年9月8日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员