In this paper, we present a new tracking architecture with an encoder-decoder transformer as the key component. The encoder models the global spatio-temporal feature dependencies between target objects and search regions, while the decoder learns a query embedding to predict the spatial positions of the target objects. Our method casts object tracking as a direct bounding box prediction problem, without using any proposals or predefined anchors. With the encoder-decoder transformer, the prediction of objects just uses a simple fully-convolutional network, which estimates the corners of objects directly. The whole method is end-to-end, does not need any postprocessing steps such as cosine window and bounding box smoothing, thus largely simplifying existing tracking pipelines. The proposed tracker achieves state-of-the-art performance on five challenging short-term and long-term benchmarks, while running at real-time speed, being 6x faster than Siam R-CNN. Code and models are open-sourced at https://github.com/researchmm/Stark.


翻译:在本文中,我们展示了一个新的跟踪结构,其中以编码器脱coder-decoder变压器作为关键组成部分。编码器模型模拟了目标物体和搜索区域之间的全球时空特征依赖性,而编码器则学习了用于预测目标物体空间位置的查询嵌入器。我们的方法将对象跟踪作为一个直接捆绑的框预测问题,而没有使用任何建议或预设的锚。在编码器脱coder变压器中,对物体的预测只是使用一个简单的全演化网络,直接估计物体的角。整个方法都是端到端,不需要任何后处理步骤,例如对焦窗口和捆绑箱的滑动,从而在很大程度上简化了现有的跟踪管道。拟议跟踪器在五个具有挑战性的短期和长期基准上实现了最新状态的运行,同时实时运行速度比Siam R-CN.代码和模型更快6x,在 https://github.com/researmm/Stark上是开放源码和模型。

0
下载
关闭预览

相关内容

【CVPR 2021】变换器跟踪TransT: Transformer Tracking
专知会员服务
21+阅读 · 2021年4月20日
Transformer模型-深度学习自然语言处理,17页ppt
专知会员服务
97+阅读 · 2020年8月30日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【泡泡前沿追踪】跟踪SLAM前沿动态系列之IROS2018
泡泡机器人SLAM
29+阅读 · 2018年10月28日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
STRCF for Visual Object Tracking
统计学习与视觉计算组
14+阅读 · 2018年5月29日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
5+阅读 · 2018年4月30日
Arxiv
3+阅读 · 2018年3月22日
Arxiv
8+阅读 · 2018年3月20日
Arxiv
9+阅读 · 2018年3月10日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员