Deep hashing has been extensively utilized in massive image retrieval because of its efficiency and effectiveness. However, deep hashing models are vulnerable to adversarial examples, making it essential to develop adversarial defense methods for image retrieval. Existing solutions achieved limited defense performance because of using weak adversarial samples for training and lacking discriminative optimization objectives to learn robust features. In this paper, we present a min-max based Center-guided Adversarial Training, namely CgAT, to improve the robustness of deep hashing networks through worst adversarial examples. Specifically, we first formulate the center code as a semantically-discriminative representative of the input image content, which preserves the semantic similarity with positive samples and dissimilarity with negative examples. We prove that a mathematical formula can calculate the center code immediately. After obtaining the center codes in each optimization iteration of the deep hashing network, they are adopted to guide the adversarial training process. On the one hand, CgAT generates the worst adversarial examples as augmented data by maximizing the Hamming distance between the hash codes of the adversarial examples and the center codes. On the other hand, CgAT learns to mitigate the effects of adversarial samples by minimizing the Hamming distance to the center codes. Extensive experiments on the benchmark datasets demonstrate the effectiveness of our adversarial training algorithm in defending against adversarial attacks for deep hashing-based retrieval. Compared with the current state-of-the-art defense method, we significantly improve the defense performance by an average of 18.61%, 12.35%, and 11.56% on FLICKR-25K, NUS-WIDE, and MS-COCO, respectively.


翻译:在大规模图像检索中广泛使用了深 hashing 深深层 hashing, 因为它的效率和效力。 但是, 深层 hash 模型很容易成为对抗性例子, 使得开发对抗性防御方法对图像检索至关重要。 现有的解决方案由于在培训中使用了较弱的对抗性样本, 并且缺乏区别性优化目标来学习强性特征, 因而取得了有限的防御性表现。 在本文中, 我们展示了一个基于 min-max 的基于中心指导的反向培训, 即CgAT, 通过最差的对称性对称性培训实例, 来提高深度的对称网络的稳健性。 具体地说, 我们首先将中心代码作为输入图像内容内容的语义差异性代表, 使语义相似性与正样相似, 与负面例子不同。 我们证明数学公式可以立即计算出中心代码。 在每次优化深处的网络中, 获得中心代码后, 就会被采用。 一方面, CgAT 生成了最差的对立性美国对称的例子, 通过尽可能扩大的数据,, 我们通过 Hammrefrefrial- detradefrefor devideferal 的防御 Cradeformation, 在11 的 Chardeformal- devald 的代码中, 的 Charding defreme ex ex ex ex prevation ex ex exbal ex ex exprevation ex express exbal exprevation,, pressal ex ex ex ex ex exx, lex leg sal leg sal lear- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- sal- legal- sal- sal- sal- sal- sal- sal- sal- legal- sal- sal- sal- sal- sal- sal- sal- sal- lear- sal- sal- sal- sal- sal- sal-

0
下载
关闭预览

相关内容

专知会员服务
124+阅读 · 2020年9月8日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年12月27日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
A survey on deep hashing for image retrieval
Arxiv
15+阅读 · 2020年6月10日
VIP会员
相关VIP内容
专知会员服务
124+阅读 · 2020年9月8日
强化学习最新教程,17页pdf
专知会员服务
182+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
78+阅读 · 2019年10月10日
相关资讯
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
相关基金
国家自然科学基金
0+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员