Most Siamese network-based trackers perform the tracking process without model update, and cannot learn targetspecific variation adaptively. Moreover, Siamese-based trackers infer the new state of tracked objects by generating axis-aligned bounding boxes, which contain extra background noise, and are unable to accurately estimate the rotation and scale transformation of moving objects, thus potentially reducing tracking performance. In this paper, we propose a novel Rotation-Scale Invariant Network (RSINet) to address the above problem. Our RSINet tracker consists of a target-distractor discrimination branch and a rotation-scale estimation branch, the rotation and scale knowledge can be explicitly learned by a multi-task learning method in an end-to-end manner. In addtion, the tracking model is adaptively optimized and updated under spatio-temporal energy control, which ensures model stability and reliability, as well as high tracking efficiency. Comprehensive experiments on OTB-100, VOT2018, and LaSOT benchmarks demonstrate that our proposed RSINet tracker yields new state-of-the-art performance compared with recent trackers, while running at real-time speed about 45 FPS.


翻译:大部分以暹罗网络为基础的跟踪器在不进行模型更新的情况下进行跟踪过程,并且无法从适应性上学习特定目标变异。此外,以暹罗为基础的跟踪器通过生成具有额外背景噪音且无法准确估计移动物体的旋转和规模转换,从而可能降低跟踪性能的多数暹罗网络跟踪器进行跟踪过程,在本文中,我们提议建立一个新的旋转-差异规模网络(RSINet),以解决上述问题。我们的RSINet跟踪器包括一个目标-吸引者歧视分支和一个轮值估计分支,可以通过一个多任务学习方法,以端到端的方式明确了解跟踪物体的新状态。加之,跟踪模型在波形时能控制下进行了适应性优化和更新,确保模型的稳定性和可靠性,以及高跟踪效率。关于OTB-100、VOT2018和LaSOT基准的全面实验表明,我们提议的RSINet跟踪器与最近的跟踪器相比,可以产生新的状态-艺术性能,同时以实时速度运行45个FPS。

0
下载
关闭预览

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
77+阅读 · 2020年6月11日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
72+阅读 · 2020年4月24日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
56+阅读 · 2019年10月17日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
7+阅读 · 2018年6月19日
Arxiv
3+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
9+阅读 · 2018年3月10日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
Top
微信扫码咨询专知VIP会员