摘要: 在这篇论文中,我们提出了一种新的元学习方法来自动修剪非常深的神经网络的通道。我们首先训练一个剪枝网络,这是一种元网络,它能够为给定目标网络的任何剪枝结构生成权重参数。我们使用一种简单的随机结构抽样方法来训练剪枝网络。然后,我们应用进化过程来搜索性能良好的修剪网络。由于权值是由经过训练的剪枝网络直接生成的,因此在搜索时不需要进行任何调整,因此搜索效率很高。通过对目标网络的单一剪枝网络进行训练,我们可以在不需要人工参与的情况下搜索不同约束条件下的各种剪枝网络。与最先进的修剪方法相比,我们在MobileNet V1/V2和ResNet上表现出了优异的性能。

代码链接:https://github.com/liuzechun/runing

成为VIP会员查看完整内容
16

相关内容

北京旷视科技有限公司由印奇、唐文斌、杨沐三人2011年创办于北京市海淀区中关村, 致力于打造服务于各商业领域的AIoT操作系统,以及构建具备连接物联网设备能力的生态系统。 在北京、上海、深圳、成都、南京、杭州、武汉、宁波、青岛、徐州、美国西雅图等地设有研发中心和运营机构。 官方网站:https://www.megvii.com/
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
56+阅读 · 2020年5月9日
[CVPR 2020-港中文-MIT] 神经架构搜索鲁棒性
专知会员服务
25+阅读 · 2020年4月7日
【Google-CMU】元伪标签的元学习,Meta Pseudo Labels
专知会员服务
31+阅读 · 2020年3月30日
元学习—Meta Learning的兴起
专知
44+阅读 · 2019年10月19日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
神经网络架构搜索(NAS)综述 | 附AutoML资料推荐
【教程】如何估算深度神经网络的最优学习率
GAN生成式对抗网络
5+阅读 · 2017年11月18日
Arxiv
5+阅读 · 2020年3月26日
Arxiv
14+阅读 · 2019年9月11日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Arxiv
13+阅读 · 2019年1月26日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
7+阅读 · 2018年12月6日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关论文
Arxiv
5+阅读 · 2020年3月26日
Arxiv
14+阅读 · 2019年9月11日
Neural Response Generation with Meta-Words
Arxiv
6+阅读 · 2019年6月14日
Arxiv
13+阅读 · 2019年1月26日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
7+阅读 · 2018年12月6日
Neural Architecture Optimization
Arxiv
8+阅读 · 2018年9月5日
Arxiv
5+阅读 · 2017年11月30日
微信扫码咨询专知VIP会员