Equivariance w.r.t. geometric transformations in neural networks improves data efficiency, parameter efficiency and robustness to out-of-domain perspective shifts. When equivariance is not designed into a neural network, the network can still learn equivariant functions from the data. We quantify this learned equivariance, by proposing an improved measure for equivariance. We find evidence for a correlation between learned translation equivariance and validation accuracy on ImageNet. We therefore investigate what can increase the learned equivariance in neural networks, and find that data augmentation, reduced model capacity and inductive bias in the form of convolutions induce higher learned equivariance in neural networks.


翻译:深度图像识别模型中学习到的等变性受到什么影响? 翻译后的摘要: 神经网络在几何变换下的等变性提高了数据效率、参数效率和对视角变换的稳健性。当等变性未被设计到神经网络中时,网络仍然可以从数据中学习到等变函数。我们提出了一个改进的等变性度量来量化这种学习到的等变性。我们发现学习到的平移等变性与ImageNet上的验证准确性之间存在相关性。因此,我们研究了什么可以增加神经网络中学习到的等变性,并发现数据增强、降低模型容量以及以卷积形式的归纳偏差可以在神经网络中诱导更高的学习到的等变性。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
82+阅读 · 2020年7月26日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
44+阅读 · 2019年1月3日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Arxiv
12+阅读 · 2019年3月14日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员