成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
对抗样本
关注
12
对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。
综合
百科
VIP
热门
动态
论文
精华
Improving behavior based authentication against adversarial attack using XAI
Arxiv
0+阅读 · 3月10日
Improving behavior based authentication against adversarial attack using XAI
Arxiv
0+阅读 · 2月26日
EvoSeed: Unveiling the Threat on Deep Neural Networks with Real-World Illusions
Arxiv
0+阅读 · 2月7日
Invariance-powered Trustworthy Defense via Remove Then Restore
Arxiv
0+阅读 · 2月1日
GE-AdvGAN: Improving the transferability of adversarial samples by gradient editing-based adversarial generative model
Arxiv
0+阅读 · 1月30日
Mitigating Feature Gap for Adversarial Robustness by Feature Disentanglement
Arxiv
0+阅读 · 1月26日
Diffusion-Based Adversarial Sample Generation for Improved Stealthiness and Controllability
Arxiv
0+阅读 · 1月17日
GE-AdvGAN: Improving the transferability of adversarial samples by gradient editing-based adversarial generative model
Arxiv
0+阅读 · 1月11日
CT-GAT: Cross-Task Generative Adversarial Attack based on Transferability
Arxiv
0+阅读 · 2023年11月5日
Exploring Transferability of Multimodal Adversarial Samples for Vision-Language Pre-training Models with Contrastive Learning
Arxiv
0+阅读 · 2023年11月5日
Evaluating Hallucinations in Chinese Large Language Models
Arxiv
0+阅读 · 2023年10月25日
Evaluating Hallucinations in Chinese Large Language Models
Arxiv
0+阅读 · 2023年10月24日
Evaluating Hallucinations in Chinese Large Language Models
Arxiv
0+阅读 · 2023年10月23日
Attacks Meet Interpretability (AmI) Evaluation and Findings
Arxiv
0+阅读 · 2023年10月22日
Attacks Meet Interpretability (AmI) Evaluation and Findings
Arxiv
0+阅读 · 2023年10月18日
参考链接
专家谈术语 | 对抗样本
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top