We present a simple, fast, and light-weight RNN based framework for forecasting future locations of humans in first person monocular videos. The primary motivation for this work was to design a network which could accurately predict future trajectories at a very high rate on a CPU. Typical applications of such a system would be a social robot or a visual assistance system for all, as both cannot afford to have high compute power to avoid getting heavier, less power efficient, and costlier. In contrast to many previous methods which rely on multiple type of cues such as camera ego-motion or 2D pose of the human, we show that a carefully designed network model which relies solely on bounding boxes can not only perform better but also predicts trajectories at a very high rate while being quite low in size of approximately 17 MB. Specifically, we demonstrate that having an auto-encoder in the encoding phase of the past information and a regularizing layer in the end boosts the accuracy of predictions with negligible overhead. We experiment with three first person video datasets: CityWalks, FPL and JAAD. Our simple method trained on CityWalks surpasses the prediction accuracy of state-of-the-art method (STED) while being 9.6x faster on a CPU (STED runs on a GPU). We also demonstrate that our model can transfer zero-shot or after just 15% fine-tuning to other similar datasets and perform on par with the state-of-the-art methods on such datasets (FPL and DTP). To the best of our knowledge, we are the first to accurately forecast trajectories at a very high prediction rate of 78 trajectories per second on CPU.


翻译:我们提出了一个简单、快速和轻量级的 RNN 框架,用于在第一人单视视频中预测人类未来位置。 这项工作的主要动机是设计一个网络,能够以非常高的速率准确预测未来的轨迹。 这种系统的典型应用是社交机器人或视觉辅助系统,因为两者都负担不起高的计算能力,以避免更重、更低的功率和成本更高。 与许多以前依赖多种类型的线索,如照相机自动或2D的人体姿势的方法相比,我们展示了一个精心设计的网络模型,该模型仅仅依赖捆绑盒,不仅能够运行得更好,而且还预测了非常高的轨迹。 这种系统的典型应用是社会机器人或视觉辅助系统,因为两者都无法在以往信息的编码阶段拥有高的自动编码器,最终的正常化层能提高预测的精确度。 我们用第三种个人视频数据集进行实验: CityWalks, FPL 和 GAAAAAD。 我们的精确度方法在C 的精确度后,我们用C- Steal- drovely 数据转换为C 的精确度, 在C- Stroad 方法上, 我们的精确的精确的C- Streal- preal- preal- preal preal prealations to the the lax lax lax lax lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax a lax lax lax lax a lax lax a lax a lax a lax a lax a lax a lax a lax a lax a laut a lauts a lautdal lauts a lauts a lax a lax a lax a lax a lax a laut a lax a laut a lax a lax a lax a lax a lax a lax a lax a lax a la laut

0
下载
关闭预览

相关内容

专知会员服务
109+阅读 · 2020年3月12日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
CVPR 2019 论文开源项目合集
专知
18+阅读 · 2019年4月7日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
目标跟踪的一篇论文及代码视频
CreateAMind
8+阅读 · 2017年9月7日
Real-Time High-Resolution Background Matting
Arxiv
4+阅读 · 2020年12月14日
DPOD: Dense 6D Pose Object Detector in RGB images
Arxiv
5+阅读 · 2019年2月28日
Joint Monocular 3D Vehicle Detection and Tracking
Arxiv
8+阅读 · 2018年12月2日
VIP会员
相关VIP内容
相关资讯
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
CVPR 2019 论文开源项目合集
专知
18+阅读 · 2019年4月7日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
IEEE2018|An Accurate and Real-time 3D Tracking System for Robots
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
目标跟踪的一篇论文及代码视频
CreateAMind
8+阅读 · 2017年9月7日
Top
微信扫码咨询专知VIP会员