对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。

精品内容

面向深度强化学习的对抗攻防综述
专知会员服务
50+阅读 · 2023年8月2日
【博士论文】深度学习的对抗攻击与鲁棒性测评
专知会员服务
62+阅读 · 2022年12月9日
深度学习模型鲁棒性研究综述
专知会员服务
88+阅读 · 2022年1月23日
专知会员服务
28+阅读 · 2021年9月11日
专知会员服务
44+阅读 · 2021年9月9日
专知会员服务
30+阅读 · 2021年8月13日
专知会员服务
39+阅读 · 2021年5月6日
专知会员服务
43+阅读 · 2021年1月18日
专知会员服务
87+阅读 · 2021年1月17日
微信扫码咨询专知VIP会员