Pretrained language models (PLMs) perform poorly under adversarial attacks. To improve the adversarial robustness, adversarial data augmentation (ADA) has been widely adopted to cover more search space of adversarial attacks by adding textual adversarial examples during training. However, the number of adversarial examples for text augmentation is still extremely insufficient due to the exponentially large attack search space. In this work, we propose a simple and effective method to cover a much larger proportion of the attack search space, called Adversarial and Mixup Data Augmentation (AMDA). Specifically, AMDA linearly interpolates the representations of pairs of training samples to form new virtual samples, which are more abundant and diverse than the discrete text adversarial examples in conventional ADA. Moreover, to fairly evaluate the robustness of different models, we adopt a challenging evaluation setup, which generates a new set of adversarial examples targeting each model. In text classification experiments of BERT and RoBERTa, AMDA achieves significant robustness gains under two strong adversarial attacks and alleviates the performance degradation of ADA on the clean data. Our code is released at: https://github.com/thunlp/MixADA .


翻译:培训前语言模型在对抗性攻击下表现不佳。为了提高对抗性强力,广泛采用对抗性数据增强(ADA),在培训期间添加了文字对抗性攻击实例,以覆盖对抗性攻击的更多搜索空间;然而,由于攻击性攻击性攻击搜索空间极大,增强文本的对抗性实例数量仍然极为不足;在这项工作中,我们提出了一个简单而有效的方法,以涵盖攻击性搜索空间中大得多的部分,称为反向和混合数据增强(AMDA),具体地说,AMDA线性地将一对培训样本的展示用于形成新的虚拟样本,这些样本比传统ADA的单独文本对抗性攻击性例子丰富多样。此外,为了公平评估不同模型的健全性,我们采用了具有挑战性的评价设置,针对每一种模型产生了一套新的对抗性实例。在BERT和RoBERTA的文本分类实验中,AMDA在两次强烈的对抗性攻击下取得了显著的强力增益,并减轻了ADADA在清洁数据上的性退化。我们的代码公布于: https://github.com/unpl.comml。我们的代码在http://ADADADADADADADADADADADADADADA/unp.comp.comp.comp.comp.comp.

0
下载
关闭预览

相关内容

专知会员服务
10+阅读 · 2021年3月21日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
【CVPR2020】MSG-GAN:用于稳定图像合成的多尺度梯度GAN
专知会员服务
26+阅读 · 2020年4月6日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Interpretable Adversarial Training for Text
Arxiv
5+阅读 · 2019年5月30日
Conditional BERT Contextual Augmentation
Arxiv
8+阅读 · 2018年12月17日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
Top
微信扫码咨询专知VIP会员