今晚直播 | ICLR 2022:超越源域的攻击,面向黑盒域制作对抗样本

2022 年 4 月 14 日 PaperWeekly



本期 AI Drive,我们邀请到电子科技大学硕士生章琪泷,为大家在线解读其发表在 ICLR 2022 的最新研究成果。本次报告的主题为 超越源域的攻击,面向黑盒域制作对抗样本 。对本期主题感兴趣的小伙伴,4 月 14 日(本周四)晚 7 点,我们准时相约 PaperWeekly 直播间。



直播信息



对抗样本由于他们的可转移性质对深度神经网络构成了严重的安全威胁。目前,大量工作都为提高对抗样本跨模型的可转移性付出了巨大努力。通常来说,这些工作大多假设替代模型与目标模型在同一域训练。然而,在现实中,所部署模型的相关信息不太可能泄露。因此,建立一个更实用的黑盒威胁模型来克服这一局限性并评估部署模型的脆弱性是至关重要的。

在本文中,仅凭 ImageNet 领域的知识, 我们提出了一个 Beyond ImageNet Attack(BIA)来研究对抗样本跨域(未知分类任务)的可转移性。 具体来说,我们利用生成模型来学习对抗扰动生成函数,以破坏输入图像的低级特征。基于这个框架,我们进一步提出两个变体,分别从数据和模型的角度缩小源域和目标域之间的差距。大量的实验结果证明了我们方法的有效性。

论文信息


文标题:  
Beyond ImageNet Attack: Towards Crafting Adversarial Examples for Black-box Domains

收录会议: 

ICLR 2022

论文链接: 

https://arxiv.org/abs/2201.11528

代码链接:

https://github.com/Alibaba-AAIG/Beyond-ImageNet-Attack

演讲提纲


  • 研究背景

  • 现有方法的回顾和分析

  • 本文所提方法

  • 实验结果



嘉宾介绍



 章琪泷 / 电子科技大学硕士生 

章琪泷,电子科技大学三年级在读硕士生,师从宋井宽和高联丽教授。其研究方向为 AI 安全,并在 CVPR、ECCV、 ICLR、 IJCAI 等 AI 相关顶级会议发表学术论文多篇,曾受邀担任 CVPR、ECCV、ICLR 等会议审稿人。


直播地址



本次直播将在 PaperWeekly 视频号和 B 站直播间进行, 扫描下方海报二维码 或点击 阅读原文 即可免费观看。

 微信视频号 

点击下方 PaperWeekly 视频号预约按钮,第一时间获取开播提醒。



 B站直播间  

https://live.bilibili.com/14884511






合作伙伴






🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·


登录查看更多
0

相关内容

对抗样本由Christian Szegedy等人提出,是指在数据集中通过故意添加细微的干扰所形成的输入样本,导致模型以高置信度给出一个错误的输出。在正则化背景下,通过对抗训练减少原有独立同分布的测试集的错误率——在对抗扰动的训练集样本上训练网络。 对抗样本是指通过在数据中故意添加细微的扰动生成的一种输入样本,能够导致神经网络模型给出一个错误的预测结果。 实质:对抗样本是通过向输入中加入人类难以察觉的扰动生成,能够改变人工智能模型的行为。其基本目标有两个,一是改变模型的预测结果;二是加入到输入中的扰动在人类看起来不足以引起模型预测结果的改变,具有表面上的无害性。对抗样本的相关研究对自动驾驶、智能家居等应用场景具有非常重要的意义。
【AAAI2022】学会学习可迁移攻击
专知会员服务
14+阅读 · 2021年12月15日
【NeurIPS 2021】实例依赖的偏标记学习
专知会员服务
10+阅读 · 2021年11月28日
专知会员服务
49+阅读 · 2021年7月10日
专知会员服务
24+阅读 · 2021年6月17日
【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
51+阅读 · 2020年10月10日
近期必读的五篇KDD 2020【迁移学习 (TL) 】相关论文
专知会员服务
38+阅读 · 2020年8月25日
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
156+阅读 · 2020年6月30日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Arxiv
16+阅读 · 2021年7月18日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
Transfer Adaptation Learning: A Decade Survey
Arxiv
37+阅读 · 2019年3月12日
Arxiv
10+阅读 · 2018年4月19日
VIP会员
相关VIP内容
【AAAI2022】学会学习可迁移攻击
专知会员服务
14+阅读 · 2021年12月15日
【NeurIPS 2021】实例依赖的偏标记学习
专知会员服务
10+阅读 · 2021年11月28日
专知会员服务
49+阅读 · 2021年7月10日
专知会员服务
24+阅读 · 2021年6月17日
【RecSys2020干货教程】对抗机器学习推荐系统,186页ppt
专知会员服务
51+阅读 · 2020年10月10日
近期必读的五篇KDD 2020【迁移学习 (TL) 】相关论文
专知会员服务
38+阅读 · 2020年8月25日
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
156+阅读 · 2020年6月30日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员