【泡泡一分钟】PathTrack:使用路径监督的快速轨迹标注方法(ICCV2017-28)

2018 年 5 月 26 日 泡泡机器人SLAM

每天一分钟,带你读遍机器人顶级会议文章

标题:PathTrack: Fast Trajectory Annotation with Path Supervision

作者:Santiago Manen, Michael Gygli, Dengxin Dai, Luc Van Gool 

来源:International Conference on Computer Vision (ICCV 2017)

播音员:Suzanne

编译:张鲁 周平

欢迎个人转发朋友圈;其他机构或自媒体如需转载,后台留言申请授权


摘要

多物体跟踪(MOT)领域的发展一直被现有可用数据集的大小所限制。我们提出了一种高效的框架来标注轨迹,并且借此生成了一个前所未有的大规模MOT数据集。在本文提出的这个新型路径监督机制中,标注者在观看视频时使用光标粗略地跟踪物体,以此提供了视频中各个物体的运动路径标注。我们的方法可以将此类弱标注转化为稠密的边界框轨迹。我们对现有数据集进行的实验证明,我们的框架能够在短时间内产生比现有技术更精确的标注。我们还通过众包的方法建立了PathTrack数据集以此验证本文方法的可行性,该数据集包括超过720个视频序列总共15000个人物轨迹。与物体识别类似,跟踪过程的训练可以受益于大规模的数据集。我们通过重新训练一个现成的人物匹配网络来证明上述结论,该网络原本由MOT15数据集训练,使用本方法几乎将误分类率降低一半。此外,在我们的训练集上训练,可以持续改进跟踪结果,无论是在本数据集中还是MOT15中。在后者中,我们改进了性能最好的跟踪器(NOMT),将ID Sw. 降低了18%,Frag降低了5%。


图1. 图中的序列含有许多相似的人物。标注这类序列是非常耗时且枯燥的。本文的路径监督(path supervision)方法中,用户可以在观看视频时轻松地跟随目标来收集路径标注。本文方法使用这类路径标注来生成稠密的边界框轨迹。


Abstract

Progress in Multiple Object Tracking (MOT) has been historically limited by the size of the available datasets. We present an efficient framework to annotate trajectories and use it to produce a MOT dataset of unprecedented size. In our novel path supervision the annotator loosely follows the object with the cursor while watching the video, providing a path annotation for each object in the sequence. Our approach is able to turn such weak annotations into dense box trajectories. Our experiments on existing datasets prove that our framework produces more accurate annotations than the state of the art, in a fraction of the time. We further validate our approach by crowdsourcing the PathTrack dataset, with more than 15,000 person trajectories in 720 sequences1. Tracking approaches can benefit training on such large-scale datasets, as did object recognition. We prove this by re-training an off-the-shelf person matching network, originally trained on the MOT15 dataset, almost halving the misclassification rate. Additionally, training on our data consistently improves tracking results, both on our dataset and on MOT15. On the latter, we improve the top-performing tracker (NOMT) dropping the number of ID Switches by 18% and fragments by 5%.


 如果你对本文感兴趣,想要下载完整文章进行阅读,可以关注【泡泡机器人SLAM】公众号(paopaorobot_slam)


点击“阅读原文”,即可获取本文下载链接。


欢迎来到泡泡论坛,这里有大牛为你解答关于SLAM的任何疑惑。

有想问的问题,或者想刷帖回答问题,泡泡论坛欢迎你!

泡泡网站:www.paopaorobot.org

泡泡论坛:http://paopaorobot.org/forums/


泡泡机器人SLAM的原创内容均由泡泡机器人的成员花费大量心血制作而成,希望大家珍惜我们的劳动成果,转载请务必注明出自【泡泡机器人SLAM】微信公众号,否则侵权必究!同时,我们也欢迎各位转载到自己的朋友圈,让更多的人能进入到SLAM这个领域中,让我们共同为推进中国的SLAM事业而努力!

商业合作及转载请联系liufuqiang_robot@hotmail.com

登录查看更多
10

相关内容

ICCV 的全称是 IEEE International Conference on Computer Vision,即国际计算机视觉大会,由IEEE主办,与计算机视觉模式识别会议(CVPR)和欧洲计算机视觉会议(ECCV)并称计算机视觉方向的三大顶级会议,被澳大利亚ICT学术会议排名和中国计算机学会等机构评为最高级别学术会议,在业内具有极高的评价。不同于在美国每年召开一次的CVPR和只在欧洲召开的ECCV,ICCV在世界范围内每两年召开一次。ICCV论文录用率非常低,是三大会议中公认级别最高的。ICCV会议时间通常在四到五天,相关领域的专家将会展示最新的研究成果。
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
77+阅读 · 2020年6月11日
【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
专知会员服务
41+阅读 · 2020年2月20日
【泡泡一分钟】无监督学习的立体匹配方法(ICCV-2017)
泡泡机器人SLAM
8+阅读 · 2018年10月9日
【泡泡一分钟】用于深度双目的非监督适应方法(ICCV-2017)
泡泡机器人SLAM
10+阅读 · 2018年10月7日
【泡泡一分钟】端到端的弱监督语义对齐
泡泡机器人SLAM
53+阅读 · 2018年4月5日
【泡泡一分钟】动态环境下稳健的单目SLAM
泡泡机器人SLAM
13+阅读 · 2018年3月22日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
Arxiv
6+阅读 · 2018年3月28日
Arxiv
3+阅读 · 2018年3月22日
VIP会员
相关VIP内容
【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
77+阅读 · 2020年6月11日
【CVPR2020-谷歌】多目标(车辆)跟踪与检测框架 RetinaTrack
专知会员服务
44+阅读 · 2020年4月10日
专知会员服务
41+阅读 · 2020年2月20日
Top
微信扫码咨询专知VIP会员