平移的不变性为卷积神经网络注入了强大的泛化特性。然而,我们通常无法预先知道数据中存在哪些不变性,或者模型在多大程度上应该对给定的对称组保持不变。我们展示了如何通过参数化增强分布和同时优化网络参数和增强参数的训练损失来学习不变性和等方差。通过这个简单的过程,我们可以在一个很大的扩充空间中,仅在训练数据上,恢复图像分类、回归、分割和分子性质预测上的正确不变量集和范围。

https://arxiv.org/pdf/2010.11882.pdf

成为VIP会员查看完整内容
27

相关内容

【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
23+阅读 · 2020年11月5日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
19+阅读 · 2020年10月24日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS 2020】对比学习全局和局部医学图像分割特征
专知会员服务
42+阅读 · 2020年10月20日
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【NeurIPS 2020】生成对抗性模仿学习的f-Divergence
专知会员服务
25+阅读 · 2020年10月9日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
46+阅读 · 2019年2月1日
基于二进制哈希编码快速学习的快速图像检索
炼数成金订阅号
8+阅读 · 2018年5月17日
【观点】如何可视化卷积网络分类图像时关注的焦点
GAN生成式对抗网络
5+阅读 · 2018年3月17日
入门 | 一文了解神经网络中的梯度爆炸
机器之心
8+阅读 · 2017年12月22日
Arxiv
2+阅读 · 2020年12月1日
Arxiv
0+阅读 · 2020年11月29日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关VIP内容
【NeurIPS 2020】图神经网络GNN架构设计
专知会员服务
79+阅读 · 2020年11月19日
【Cell 2020】神经网络中的持续学习
专知会员服务
59+阅读 · 2020年11月7日
【NeurIPS 2020】对图神经网络更切实的对抗式攻击
专知会员服务
23+阅读 · 2020年11月5日
【NeurIPS 2020 】神经网络结构生成优化
专知会员服务
19+阅读 · 2020年10月24日
专知会员服务
45+阅读 · 2020年10月22日
【NeurIPS 2020】对比学习全局和局部医学图像分割特征
专知会员服务
42+阅读 · 2020年10月20日
专知会员服务
16+阅读 · 2020年10月18日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【NeurIPS 2020】生成对抗性模仿学习的f-Divergence
专知会员服务
25+阅读 · 2020年10月9日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
相关资讯
【NeurIPS 2020】核基渐进蒸馏加法器神经网络
专知
13+阅读 · 2020年10月19日
真正的神经网络,敢于不学习权重
机器之心
6+阅读 · 2019年6月13日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
脉冲神经网络与小样本学习【附PPT】
人工智能前沿讲习班
46+阅读 · 2019年2月1日
基于二进制哈希编码快速学习的快速图像检索
炼数成金订阅号
8+阅读 · 2018年5月17日
【观点】如何可视化卷积网络分类图像时关注的焦点
GAN生成式对抗网络
5+阅读 · 2018年3月17日
入门 | 一文了解神经网络中的梯度爆炸
机器之心
8+阅读 · 2017年12月22日
微信扫码咨询专知VIP会员