The traditional convolution neural networks (CNN) have several drawbacks like the Picasso effect and the loss of information by the pooling layer. The Capsule network (CapsNet) was proposed to address these challenges because its architecture can encode and preserve the spatial orientation of input images. Similar to traditional CNNs, CapsNet is also vulnerable to several malicious attacks, as studied by several researchers in the literature. However, most of these studies focus on single-device-based inference, but horizontally collaborative inference in state-of-the-art systems, like intelligent edge services in self-driving cars, voice controllable systems, and drones, nullify most of these analyses. Horizontal collaboration implies partitioning the trained CNN models or CNN tasks to multiple end devices or edge nodes. Therefore, it is imperative to examine the robustness of the CapsNet against malicious attacks when deployed in horizontally collaborative environments. Towards this, we examine the robustness of the CapsNet when subjected to noise-based inference attacks in a horizontal collaborative environment. In this analysis, we perturbed the feature maps of the different layers of four DNN models, i.e., CapsNet, Mini-VGG, LeNet, and an in-house designed CNN (ConvNet) with the same number of parameters as CapsNet, using two types of noised-based attacks, i.e., Gaussian Noise Attack and FGSM noise attack. The experimental results show that similar to the traditional CNNs, depending upon the access of the attacker to the DNN layer, the classification accuracy of the CapsNet drops significantly. For example, when Gaussian Noise Attack classification is performed at the DigitCap layer of the CapsNet, the maximum classification accuracy drop is approximately 97%.


翻译:传统的神经神经网络(CNN)有几个缺点,如Picasso效应和集合层丢失信息。 Capsule网络(CapsNet)之所以提出应对这些挑战,是因为其结构可以对输入图像进行编码并保存空间方向。与传统的CNN一样,CapsNet也容易受到若干恶意袭击的伤害,正如一些研究人员在文献中研究的那样。然而,这些研究大多侧重于基于单一装置的推断,但在最新技术系统中横向协作推导,如自驾驶汽车、语音控制系统和无人驾驶飞机等智能边缘服务,以抵消大部分这类分析。横向合作意味着将经过训练的CNN模型或CNN任务分为多个终端设备或边缘节点。因此,必须检查CapsNet在横向合作环境中部署时对恶意袭击的力度。为此,我们研究了CapsNet在横向合作环境中受到基于噪音的推断时的力度,在自行驾驶汽车驾驶汽车驾驶汽车驾驶的智能网络的直径直径直径网络的直径直径直径直径直线和直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直径直的图像图图图图,在4GNNNGNNNGOMNNGO的内,在DNNGW的直的直图上,在数字上显示的直的直的直的直的直径直径直径直图上显示。

0
下载
关闭预览

相关内容

计算机 | USENIX Security 2020等国际会议信息5条
Call4Papers
7+阅读 · 2019年4月25日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
计算机类 | 11月截稿会议信息9条
Call4Papers
6+阅读 · 2018年10月14日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
7+阅读 · 2021年10月12日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
4+阅读 · 2018年4月26日
VIP会员
相关VIP内容
相关资讯
计算机 | USENIX Security 2020等国际会议信息5条
Call4Papers
7+阅读 · 2019年4月25日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
计算机类 | 11月截稿会议信息9条
Call4Papers
6+阅读 · 2018年10月14日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员