揭秘|多伦多大学反人脸识别,身份欺骗成功率达99.5%

2018 年 6 月 9 日 机器人大讲堂

前言

在一些社交媒体平台,每次你上传照片或视频时,它的人脸识别系统会试图从这些照片和视频中得到更多信息。比如,这些算法会提取关于你是谁、你的位置以及你认识的其他人的数据,并且,这些算法在不断改进。


现在,人脸识别的克星——“反人脸识别”问世了。


多伦多大学Parham Aarabi教授和研究生Avishek Bose的团队开发了一种算法,可以动态地破坏人脸识别系统。


他们的解决方案利用了一种叫做对抗训练(adversarial training)的深度学习技术,这种技术让两种人工智能算法相互对抗。


现在,深度神经网络已经被应用于各种各样问题,如自动驾驶车辆、癌症检测等,但是我们迫切需要更好地理解这些模型容易受到攻击的方式。在图像识别领域,在图像中添加小的、往往不可察觉的干扰就可以欺骗一个典型的分类网络,使其将图像错误地分类。


这种被干扰的图像被称为对抗样本( adversarial examples),它们可以被用来对网络进行对抗攻击(adversarial attacks)。在制造对抗样本方面已经有几种方法,它们在复杂性、计算成本和被攻击模型所需的访问级别等方面差异很大。


一般来说,对抗攻击可以根据攻击模型的访问级别和对抗目标进行分类。白盒攻击(white-box attacks)可以完全访问它们正在攻击的模型的结构和参数;黑盒攻击(black-box attacks)只能访问被攻击模型的输出。


一种基线方法是快速梯度符号法(FGSM),它基于输入图像的梯度对分类器的损失进行攻击。FGSM是一种白盒方法,因为它需要访问被攻击分类器的内部。攻击图像分类的深度神经网络有几种强烈的对抗攻击方法,如L-BFGS、acobian-based Saliency Map Attack(JSMA)、DeepFool和carlin - wagner等。然而,这些方法都涉及到对可能的干扰空间进行复杂的优化,这使得它们速度慢,计算成本高。


与攻击分类模型相比,攻击目标检测的pipeline要困难得多。最先进的检测器,例如Faster R-CNN,使用不同尺度和位置的对象方案,然后对它们进行分类;其目标的数量比分类模型大几个数量级。


此外,如果受到攻击的方案只是总数的一小部分,那么仍然可以通过不同的方案子集正确地检测出受干扰的图像。因此,成功的攻击需要同时欺骗所有对象方案。


在这个案例中,研究人员证明了对最先进的人脸检测器进行快速对抗攻击是可能的。



研究人员开发了一种“隐私滤镜”,可以干扰人脸识别算法。该系统依赖于2种AI算法:一种执行连续的人脸检测,另一种设计来破坏前者。



研究人员提出一种针对基于Faster R-CNN的人脸探测器的新攻击方法。该方法通过产生微小的干扰(perturbation),当将这些干扰添加到输入的人脸图像中时,会导致预训练过的人脸探测器失效。


为了产生对抗干扰,研究人员提出针对基于预训练Faster R-CNN人脸检测器训练一个生成器。给定一个图像,生成器将产生一个小的干扰,可以添加到图像中以欺骗人脸检测器。人脸检测器只在未受干扰的图像上进行脱机训练,因此对生成器的存在浑然不觉。


随着时间的推移,生成器学会了产生干扰,这种干扰可以有效地欺骗它所训练的人脸探测器。生成一个对抗样本相当快速而且成本低,甚至比FGSM的成本更低,因为为输入创建一个干扰只需要在生成器经过充分的训练后进行前向传递( forward pass)。


两个神经网络相互对抗,形成“隐私”滤镜

研究人员设计了两个神经网络:第一个用于识别人脸,第二个用于干扰第一个神经网络的识别人脸任务。这两个神经网络不断地相互对抗,并相互学习。


其结果是一个类似instagram的“隐私”滤镜,可以应用于照片,以保护隐私。其中的秘诀是他们的算法改变了照片中的一些特定像素,但人眼几乎察觉不到这些变化。


“干扰性的AI算法不能‘攻击’用于检测人脸的神经网络正在寻找的东西。” 该项目的主要作者Bose说:“例如,如果检测网络正在寻找眼角,干扰算法就会调整眼角,使得眼角的像素不那么显眼。算法在照片中造成了非常微小的干扰,但对于检测器来说,这些干扰足以欺骗系统。”


算法1:对抗生成器训练


给定人脸检测置信度的对抗成功率。α值是边界框区域被分类为人脸之前的confidence threshold,右边两列表示600张照片中检测到脸部的数量。


研究人员在300-W人脸数据集上测试了他们的系统,该数据集包含多种族,不同照明条件和背景环境的超过600张人脸照片,是一个业界的标准库。结果表明,他们的系统可以将原本可检测到的人脸比例从接近100%降低到0.5%。


所提出的对抗攻击的pineline,其中生成器网络G创建图像条件干扰,以欺骗人脸检测器。


Bose说:“这里的关键是训练两个神经网络相互对抗——一个创建越来越强大的面部检测系统,另一个创建更强大的工具来禁用面部检测。”该团队的研究将于即将举行的2018年IEEE国际多媒体信号处理研讨会上发表和展示。



将300-W数据集的人脸检测和相应的对抗样本进行对比,这些样本具有生成的干扰,没有被Faster R-CNN人脸检测器检测到。被检测到的人脸被包围在具有相应置信度值的边界框中。 为了可视化,干扰被放大了10倍。


除了禁用面部识别之外,这项新技术还会干扰基于图像的搜索、特征识别、情感和种族判断以及其他可以自动提取面部属性。


接下来,该团队希望通过app或网站公开这个隐私滤镜。


“十年前,这些算法必须要由人类定义,但现在是神经网络自己学习——你不需要向它们提供任何东西,除了训练数据,”Aarabi说。“最终,它们可以做出一些非常了不起的事情,有巨大的潜力。”


论文地址:

https://joeybose.github.io/assets/adversarial-attacks-face.pdf

☞来源:eurekalert.org

推荐阅读
访问访谈

工程院院士 蔡鹤皋北航教授 文力深醒科技 袁培江深之篮 魏建仓

企业报道

一飞智控丨深醒科技发那科柔宇科技优傲机器人宇树科技臻迪科技iRobot

前沿技术

①工业  缝纫机器人无人智能采矿机器人中国饺子生产线自动化车间MIT 建筑机器人 

②服务  索尼机器狗 Aibos叠衣机器人 FoldiMate日本 骑自行车机器人有触觉机械手 LUKE达芬奇机器人机器人乐队空中飞车日本护理机器人合集

③特种  丰田人形机器人水下机器人 探索号俄罗斯人形机器人 FEDOR美国重型机械 Guardian GT波士顿动Atlas 360度后空翻中国四足机器人 Laikago北理工 四轮足机器人佛罗里达研究院 “机械鸵鸟

④仿生  3D打印 仿生机器人 东京大学 流汗人形机器人柔性电池哈佛 柔软肌肉哈佛哈佛 RoboBee

往期讲座

英特尔 宋继强博士 | 中民国际 刘国清陈小平教授 |驭势科技 姜岩浙大 熊蓉教授|长江学者 孙立宁上海大学 无人艇专家团|新松总裁 曲道奎北航 王田苗教授|863专家 李铁军教授北邮 刘伟教授|清华 邓志东教授清华 孙富春教授|天津大学博导 齐俊桐哈工大 杜志江教授|长江学者 王树新甘中学教授 | 硅谷创客 赵胜

温馨提示

意向合作,文章转载, 均可联系堂博士

商务合作:13810423387(同微信)

内容合作:15611695072(同微信)


登录查看更多
6

相关内容

【浙江大学】对抗样本生成技术综述
专知会员服务
89+阅读 · 2020年1月6日
【课程推荐】 深度学习中的几何(Geometry of Deep Learning)
专知会员服务
54+阅读 · 2019年11月10日
【课程】纽约大学 DS-GA 1003 Machine Learning
专知会员服务
44+阅读 · 2019年10月29日
【学界】惊了,DeepFakes不仅骗过人,还能骗过人脸识别系统?!
人脸图像保护和网纹人脸识别
机器学习研究会
8+阅读 · 2017年12月15日
【学界】继图像识别后,图像标注系统也被对抗样本攻陷!
GAN生成式对抗网络
6+阅读 · 2017年12月11日
揭秘人脸识别的十大关键技术
全球创新论坛
6+阅读 · 2017年9月6日
Arxiv
8+阅读 · 2018年11月21日
Few Shot Learning with Simplex
Arxiv
5+阅读 · 2018年7月27日
Arxiv
11+阅读 · 2018年5月13日
VIP会员
Top
微信扫码咨询专知VIP会员