来自:开源最前线(ID:OpenSourceTop)
综合自:https://arxiv.org/pdf/1908.08705.pdf、新智元、机器之心等
近日,Reddit 上一条帖子火了:
我们使用对抗攻击技术攻破了目前最好的公共 Face ID 系统 ——ArcFace。
攻破Face ID 系统的是莫斯科国立大学和华为莫斯科研究中心的两位研究人员,他们利用一张贴纸就轻易实现了,他们还公开了 demo,并开源了他们的方法。
把灯关了、强光照射、侧面打光......还是认不出这是个人
下面我们一起看看他们是如何通过一张贴纸在不同拍摄条件下攻破这个Face ID系统,他们这种对抗攻击为 AdvHat,并总结了AdvHat具有以下优点:
这是一种攻击人脸识别系统的新方法。
帽子上的贴纸显著降低了与 ground truth 类的相似性。
左边的对中,与 ground truth 的相似度下降了 0.592,右边对下降了 0.429。
上图是攻击的整个流程架构。
首先你需要将贴纸塑造成一个真实的形态。
其次,将它投射到面部图像上,第三,使用不同的参数将图像转换为ArcFace输入模板,最后,我们将模板输入弧面,评估余弦相似度和 TV loss,用于修改贴纸图像
此外,根据此前的研究,眉毛是人类识别人脸的最重要特征,因此,团队在贴纸上做了一个扬起的眉毛,从而生成一个更为成功的对抗图像。
最后,团队还请了4女6男进行测试,得出的结果如下:
蓝色,是一个人戴上普通帽子前后,AI判断的类别相似度,在70%上下。
(判断类别一致)
橙色,是一个人贴上对抗符前后,AI判断的类别相似度,降到了20%以下。
(判断类别不一致。
)
在Reddit上,许多网友都对这项研究赞不绝口,看完后你有什么感想呢?
最后附上演示视频:
论文地址:
https://arxiv.org/pdf/1908.08705.pdf
开源地址:https://github.com/papermsucode/advhat
●编号883,输入编号直达本文
●输入m获取文章目录
开源最前线