In active visual tracking, it is notoriously difficult when distracting objects appear, as distractors often mislead the tracker by occluding the target or bringing a confusing appearance. To address this issue, we propose a mixed cooperative-competitive multi-agent game, where a target and multiple distractors form a collaborative team to play against a tracker and make it fail to follow. Through learning in our game, diverse distracting behaviors of the distractors naturally emerge, thereby exposing the tracker's weakness, which helps enhance the distraction-robustness of the tracker. For effective learning, we then present a bunch of practical methods, including a reward function for distractors, a cross-modal teacher-student learning strategy, and a recurrent attention mechanism for the tracker. The experimental results show that our tracker performs desired distraction-robust active visual tracking and can be well generalized to unseen environments. We also show that the multi-agent game can be used to adversarially test the robustness of trackers.


翻译:在活跃的视觉跟踪中,当转移物体出现时,它就显得非常困难,因为转移者往往通过锁定目标或造成混乱的外观来误导跟踪者。为了解决这一问题,我们提议了一个混合合作-竞争性多试剂游戏,在这个游戏中,一个目标和多个分散者组成了一个合作团队来对抗跟踪者,使其无法跟踪。通过在游戏中学习,分散者的不同分散行为自然会显现,从而暴露追踪者的弱点,从而帮助提高跟踪者的分心-腐蚀性。为了有效学习,我们然后提出一系列实用方法,包括分散者奖励功能、跨模式师生学习策略和追踪者的经常性关注机制。实验结果显示,我们的追踪者进行了想要的分散-腐蚀性主动视觉跟踪,并且可以对看不见的环境非常普遍。我们还表明,多媒介游戏可以用来对跟踪者进行对抗性测试。

0
下载
关闭预览

相关内容

专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
50+阅读 · 2020年7月16日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年8月19日
Learning Discriminative Model Prediction for Tracking
Arxiv
5+阅读 · 2018年4月30日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
6+阅读 · 2018年2月8日
Arxiv
7+阅读 · 2017年12月28日
VIP会员
相关VIP内容
专知会员服务
24+阅读 · 2021年6月17日
专知会员服务
50+阅读 · 2020年7月16日
强化学习最新教程,17页pdf
专知会员服务
169+阅读 · 2019年10月11日
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Top
微信扫码咨询专知VIP会员