Adversarial examples reveal critical vulnerabilities in deep neural networks by exploiting their sensitivity to imperceptible input perturbations. While adversarial training remains the predominant defense strategy, it often incurs significant computational cost and may compromise clean-data accuracy. In this work, we investigate an architectural approach to adversarial robustness by embedding group-equivariant convolutions-specifically, rotation- and scale-equivariant layers-into standard convolutional neural networks (CNNs). These layers encode symmetry priors that align model behavior with structured transformations in the input space, promoting smoother decision boundaries and greater resilience to adversarial attacks. We propose and evaluate two symmetry-aware architectures: a parallel design that processes standard and equivariant features independently before fusion, and a cascaded design that applies equivariant operations sequentially. Theoretically, we demonstrate that such models reduce hypothesis space complexity, regularize gradients, and yield tighter certified robustness bounds under the CLEVER (Cross Lipschitz Extreme Value for nEtwork Robustness) framework. Empirically, our models consistently improve adversarial robustness and generalization across CIFAR-10, CIFAR-100, and CIFAR-10C under both FGSM and PGD attacks, without requiring adversarial training. These findings underscore the potential of symmetry-enforcing architectures as efficient and principled alternatives to data augmentation-based defenses.


翻译:对抗样本通过利用深度神经网络对不可察觉输入扰动的敏感性,揭示了其关键脆弱性。尽管对抗训练仍是主要的防御策略,但其通常带来显著的计算成本,并可能损害干净数据的准确性。在本工作中,我们通过将群等变卷积——特别是旋转和尺度等变层——嵌入标准卷积神经网络(CNNs),研究了一种提升对抗鲁棒性的架构方法。这些层编码了对称性先验,使模型行为与输入空间中的结构化变换对齐,从而促进更平滑的决策边界和更强的对抗攻击抵抗力。我们提出并评估了两种对称感知架构:一种并行设计,在融合前独立处理标准特征和等变特征;以及一种级联设计,顺序应用等变操作。理论上,我们证明了此类模型降低了假设空间复杂度,正则化了梯度,并在CLEVER(网络鲁棒性的交叉利普希茨极值)框架下产生了更紧的认证鲁棒性边界。实证上,我们的模型在FGSM和PGD攻击下,在CIFAR-10、CIFAR-100和CIFAR-10C数据集上持续提升了对抗鲁棒性和泛化能力,且无需进行对抗训练。这些发现强调了强制对称性架构作为基于数据增强防御方法的高效且原则性替代方案的潜力。

0
下载
关闭预览

相关内容

专知会员服务
12+阅读 · 2021年6月20日
【AAAI2021】“可瘦身”的生成式对抗网络
专知会员服务
13+阅读 · 2020年12月12日
【NeurIPS2020】可处理的反事实推理的深度结构因果模型
专知会员服务
49+阅读 · 2020年9月28日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
CosFace: Large Margin Cosine Loss for Deep Face Recognition论文笔记
统计学习与视觉计算组
44+阅读 · 2018年4月25日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
CosFace: Large Margin Cosine Loss for Deep Face Recognition论文笔记
统计学习与视觉计算组
44+阅读 · 2018年4月25日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员