Deep learning models have shown remarkable success in dermatological image analysis, offering potential for automated skin disease diagnosis. Previously, convolutional neural network(CNN) based architectures have achieved immense popularity and success in computer vision (CV) based task like skin image recognition, generation and video analysis. But with the emergence of transformer based models, CV tasks are now are nowadays carrying out using these models. Vision Transformers (ViTs) is such a transformer-based models that have shown success in computer vision. It uses self-attention mechanisms to achieve state-of-the-art performance across various tasks. However, their reliance on global attention mechanisms makes them susceptible to adversarial perturbations. This paper aims to investigate the susceptibility of ViTs for medical images to adversarial watermarking-a method that adds so-called imperceptible perturbations in order to fool models. By generating adversarial watermarks through Projected Gradient Descent (PGD), we examine the transferability of such attacks to CNNs and analyze the performance defense mechanism -- adversarial training. Results indicate that while performance is not compromised for clean images, ViTs certainly become much more vulnerable to adversarial attacks: an accuracy drop of as low as 27.6%. Nevertheless, adversarial training raises it up to 90.0%.


翻译:深度学习模型在皮肤病学图像分析中展现出卓越成效,为自动化皮肤疾病诊断提供了潜力。以往基于卷积神经网络(CNN)的架构在计算机视觉任务(如皮肤图像识别、生成与视频分析)中取得了广泛成功。然而,随着基于Transformer的模型兴起,计算机视觉任务现正逐步采用此类模型。视觉Transformer(ViT)作为一种基于Transformer的模型,已在计算机视觉领域取得成功,其利用自注意力机制在多项任务中实现了最先进的性能。但ViT对全局注意力机制的依赖使其易受对抗性扰动的影响。本文旨在研究ViT在医学图像中对对抗性水印的敏感性——该方法通过添加所谓不可察觉的扰动以欺骗模型。通过基于投影梯度下降法(PGD)生成对抗性水印,我们探究了此类攻击向CNN的可迁移性,并分析了防御机制——对抗训练的性能表现。结果表明,尽管在干净图像上性能未受损害,ViT确实对对抗性攻击更为脆弱:准确率最低下降至27.6%。然而,对抗训练可将其提升至90.0%。

0
下载
关闭预览

相关内容

Python图像处理,366页pdf,Image Operators Image Processing in Python
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员