Batch Whitening is a technique that accelerates and stabilizes training by transforming input features to have a zero mean (Centering) and a unit variance (Scaling), and by removing linear correlation between channels (Decorrelation). In commonly used structures, which are empirically optimized with Batch Normalization, the normalization layer appears between convolution and activation function. Following Batch Whitening studies have employed the same structure without further analysis; even Batch Whitening was analyzed on the premise that the input of a linear layer is whitened. To bridge the gap, we propose a new Convolutional Unit that is in line with the theory, and our method generally improves the performance of Batch Whitening. Moreover, we show the inefficacy of the original Convolutional Unit by investigating rank and correlation of features. As our method is employable off-the-shelf whitening modules, we use Iterative Normalization (IterNorm), the state-of-the-art whitening module, and obtain significantly improved performance on five image classification datasets: CIFAR-10, CIFAR-100, CUB-200-2011, Stanford Dogs, and ImageNet. Notably, we verify that our method improves stability and performance of whitening when using large learning rate, group size, and iteration number.


翻译:批发白化是一种技术,它通过转换输入功能来加速和稳定培训,使输入特性具有零平均值(进入)和单位差异(缩放),并消除各频道之间的线性关联(分级关系),从而加速和稳定培训。在通常使用的结构中,通过批批发正常化的优化,正常化层在卷发和激活功能之间出现。在批发白化研究之后,在没有进一步分析的情况下采用了同样的结构;对甚至批发白化进行了分析,其前提是线性层的输入是白白的。为了缩小差距,我们提议建立一个符合理论的新的革命单位,我们的方法普遍改进了批发白化的绩效。此外,我们通过调查特征的等级和相关性来显示原革命股的不有效性。由于我们的方法是可使用现出的白化模块,我们使用了“异性正常化”(IterNorm),即最先进的白化模块,并在五个图像分类数据集上取得了显著改进的性能:CIFAR-10,CIFAR-100,CUB-200-NBAR-NBAR-BAR-BAR-BAR-BAR-BAR-BAR-BAR-BAR-BAR 和BAR-BAR-BAR-BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_S_BAR_BAR_BAR_BAR_BAR_S_S_S_S_SD_BAR_BAR_BAR_BAR_SBAR_SBAR_S_SDAR_BAR_BAR_BAR_S_S_BAR_BAR_S_S_BAR_BAR_BAR_BAR_BAR_BAR_S_S_SD_SD_SD_SBAR_SBAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_S_S_S_S_S_S_BAR_BAR_BAR_BAR_BAR_BAR_BAR_BAR_S_S_BAR_

0
下载
关闭预览

相关内容

专知会员服务
12+阅读 · 2021年10月12日
【IJCAJ 2020】多通道神经网络 Multi-Channel Graph Neural Networks
专知会员服务
25+阅读 · 2020年7月19日
【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
40+阅读 · 2020年3月21日
【斯坦福大学Chelsea Finn-NeurIPS 2019】贝叶斯元学习
专知会员服务
37+阅读 · 2019年12月17日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Conditional Batch Normalization 详解
极市平台
4+阅读 · 2019年4月12日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
DeepLab V3
计算机视觉战队
9+阅读 · 2018年4月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
Arxiv
12+阅读 · 2019年4月9日
Arxiv
3+阅读 · 2019年3月15日
Arxiv
7+阅读 · 2018年3月22日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Conditional Batch Normalization 详解
极市平台
4+阅读 · 2019年4月12日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
DeepLab V3
计算机视觉战队
9+阅读 · 2018年4月2日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
相关论文
Top
微信扫码咨询专知VIP会员