ECCV 2020 | 史上最强二值化网络ReActNet,精度首超ResNet

2020 年 8 月 20 日 PaperWeekly


在众多卷积神经网络(CNN)压缩算法中,二值化网络(BNN)作为网络量化的极端情况,一直拥有着高压缩比,高加速比的性能优势,但是 BNN 的精度不高也一直饱受诟病,阻碍了 BNN 在实际场景中的应用。

今天和大家分享一篇 ECCV 2020 上发表的工作 ReActNet: Towards Precise  Binary Neural Network with Generalized Activation Functions。是 Bi-Real Net 作者在二值化研究领域的最新成果。该论文用简单的平移激活值分布的操作,就取得了超过等同于实数值 ResNet 的精度,可以说是长久以来对于 BNN 的艰苦探索的里程碑式的工作。
 


论文标题:ReActNet:Towards Precise Binary Neural Network with Generalized Activation Functions

论文链接:https://arxiv.org/abs/2003.03488

代码链接:https://github.com/liuzechun/ReActNet

 
这篇文章通过简单的可学习的参数值,达到优化 Activation 的分布的目的,从而增加 BNN 的中激活值所携带的信息量。仅仅通过这一简单的改进,配合 Distributional Loss,本文 ReActNet,便可压缩 MobileNet V1 至 87M FLOPs,并且取得高达 69.4% 的精度。
 
这比著名的 XNOR-Net 的结果 51.2% 要高出了 18.2%,而所需的 FLOPs 也几乎仅仅是 XNOR-Net 的 1/2。同时,69.4% 的精度已经超过 69.3% 的实数值 ResNet 精度,这也是首次 BNN 网络能取得和实数值 ResNet 网络同等高的精度,揭示了 BNN 的巨大潜力。
 
下图是 ReActNet 与各个方法的对比。


而达成这个高精度的网络 ReActNet 的核心,其实是非常简单直接操作。作者通过实验发现,BNN 卷积输出的特征图很难同时兼顾携带足够的特征信息和保证输出值范围适合下一层二值化操作。即,如果直接对网络中传递的实数值进行取 Sign 操作,可能会遇到由于实数值范围不合适而导致的二值化特征图携带信息量低。如下图所示。


只有在特征图的取值范围合适的时候(图(b)),所输出的二值化特征图才是包含最多信息量和最容易被网络是别的。
 
基于这个观察,作者提出了 Generalized Sign 和 PReLU 函数,称之为 RSign (ReAct Sign)和 RPReLU (ReAct PReLU),通过一个可学习的位移量来让网络自动学习最适合的 binary 阈值和 Activation 的分布。

 
直观的理解,比如 RPReLU 所做的事情就是 Move Activation Distribution,Reshape,Move。移动,重塑,再移动。如下图所示。

 
结合 Distributional Loss 和基于 MobileNet V1 的网络改进,用了RSign 和 RPReLU 的 ReActNet 能在 ImageNet 数据集上取得了 69.3% 的 Top-1 Accuracy,超过了 State-of-the-art 的结果。而从网络内部的 Activation 分布中也可以看出,增加了 RSign 和 RPReLU 的 ReActNet 有更强的表达能力,可以捕捉到更精细的 Activation distribution。


最后,HKUST Vision and System Design Lab 正在招有硬件经验的同学来当博士后,由 Tim CHENG 老师直接指导。如果你曾在 DAC,ICCAD 或同等硬件会议/期刊上发表过一作论文,欢迎发送简历到 zliubq@connect.ust.hk



更多阅读





#投 稿 通 道#

 让你的论文被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得技术干货。我们的目的只有一个,让知识真正流动起来。


📝 来稿标准:

• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向) 

• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接 

• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志


📬 投稿邮箱:

• 投稿邮箱:hr@paperweekly.site 

• 所有文章配图,请单独在附件中发送 

• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



登录查看更多
2

相关内容

[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
33+阅读 · 2020年7月5日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
DRN - 扩张残留网络(图像分类和语义分割)
AI科技评论
18+阅读 · 2019年8月19日
DPN-双路径网络(图像分类)
AI研习社
6+阅读 · 2019年4月11日
【紫冬新作】自动化所提出SiamMask网络,创视频跟踪最高精度
中国科学院自动化研究所
4+阅读 · 2019年3月8日
综述:DenseNet—Dense卷积网络(图像分类)
专知
84+阅读 · 2018年11月26日
SFFAI分享 | 杨朝晖:二值化网络
人工智能前沿讲习班
6+阅读 · 2018年11月22日
卷积神经网络概述及Python实现
云栖社区
4+阅读 · 2018年9月1日
简单聊聊压缩网络
计算机视觉战队
3+阅读 · 2017年10月4日
Pointer Graph Networks
Arxiv
7+阅读 · 2020年6月11日
Arxiv
7+阅读 · 2019年6月20日
Few-shot Adaptive Faster R-CNN
Arxiv
3+阅读 · 2019年3月22日
Arxiv
5+阅读 · 2018年4月17日
VIP会员
相关VIP内容
[ICML-Google]先宽后窄:对深度薄网络的有效训练
专知会员服务
33+阅读 · 2020年7月5日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
【CVPR 2020-商汤】8比特数值也能训练卷积神经网络模型
专知会员服务
25+阅读 · 2020年5月7日
CVPR2020 | 商汤-港中文等提出PV-RCNN:3D目标检测新网络
专知会员服务
43+阅读 · 2020年4月17日
【ICLR2020-】基于记忆的图网络,MEMORY-BASED GRAPH NETWORKS
专知会员服务
108+阅读 · 2020年2月22日
【ICLR-2020】网络反卷积,NETWORK DECONVOLUTION
专知会员服务
37+阅读 · 2020年2月21日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
相关资讯
DRN - 扩张残留网络(图像分类和语义分割)
AI科技评论
18+阅读 · 2019年8月19日
DPN-双路径网络(图像分类)
AI研习社
6+阅读 · 2019年4月11日
【紫冬新作】自动化所提出SiamMask网络,创视频跟踪最高精度
中国科学院自动化研究所
4+阅读 · 2019年3月8日
综述:DenseNet—Dense卷积网络(图像分类)
专知
84+阅读 · 2018年11月26日
SFFAI分享 | 杨朝晖:二值化网络
人工智能前沿讲习班
6+阅读 · 2018年11月22日
卷积神经网络概述及Python实现
云栖社区
4+阅读 · 2018年9月1日
简单聊聊压缩网络
计算机视觉战队
3+阅读 · 2017年10月4日
Top
微信扫码咨询专知VIP会员