Video action recognition (VAR) is a primary task of video understanding, and untrimmed videos are more common in real-life scenes. Untrimmed videos have redundant and diverse clips containing contextual information, so sampling dense clips is essential. Recently, some works attempt to train a generic model to select the N most representative clips. However, it is difficult to model the complex relations from intra-class clips and inter-class videos within a single model and fixed selected number, and the entanglement of multiple relations is also hard to explain. Thus, instead of "only look once", we argue "divide and conquer" strategy will be more suitable in untrimmed VAR. Inspired by the speed reading mechanism, we propose a simple yet effective clip-level solution based on skim-scan techniques. Specifically, the proposed Skim-Scan framework first skims the entire video and drops those uninformative and misleading clips. For the remaining clips, it scans clips with diverse features gradually to drop redundant clips but cover essential content. The above strategies can adaptively select the necessary clips according to the difficulty of the different videos. To trade off the computational complexity and performance, we observe the similar statistical expression between lightweight and heavy networks, thus it supports us to explore the combination of them. Comprehensive experiments are performed on ActivityNet and mini-FCVID datasets, and results demonstrate that our solution surpasses the state-of-the-art performance in terms of both accuracy and efficiency.


翻译:视频动作识别( VAR) 是视频理解的首要任务, 而未剪辑的视频在现实生活中更为常见。 未剪辑的视频有多余且多样的剪辑, 包含背景信息, 因此抽样密集的剪辑至关重要 。 最近, 一些作品试图训练一个通用模型来选择最有代表性的剪辑。 然而, 很难在单一模型和固定选定数字中模拟来自类内剪辑和类间视频的复杂关系, 并且对多个关系的纠缠也很难解释 。 因此, 我们说, “ 只看一次” 而不是“ 只看一次”, “ 翻转和征服” 战略将更适合不剪裁的 VAR 战略 。 在快速读机制的启发下, 我们提出基于滑动扫描技术的简单而有效的剪辑级别解决方案。 具体地说, 拟议的 Skim- Scan 框架首先将整个视频剪贴出整个视频剪辑和那些不清晰和误导的剪辑。 对于其余的剪辑来说, 它扫描具有不同特性的剪辑, 将逐渐减少 剪辑, 但覆盖基本内容。 以上战略可以适应性地选择必要的剪辑,, 和我们 的剪辑, 精选的剪辑, 的剪辑, 以比的精选的精选的精选的精选的精选的精选的精选的精选的精选的精选的精选的精选的精选, 我们的精选的精选的精选的精细的精细的精选的精选的精准性,, 我们的精选的精选的精选的精选 。

0
下载
关闭预览

相关内容

「元学习」最新AAAI2021-Tutorial,附视频与240页ppt
专知会员服务
114+阅读 · 2021年2月7日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
深度强化学习策略梯度教程,53页ppt
专知会员服务
177+阅读 · 2020年2月1日
【论文推荐】小样本视频合成,Few-shot Video-to-Video Synthesis
专知会员服务
23+阅读 · 2019年12月15日
已删除
将门创投
12+阅读 · 2019年7月1日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
ActivityNet Challenge 2017 冠军方案分享
极市平台
4+阅读 · 2017年7月25日
Arxiv
6+阅读 · 2021年3月11日
SlowFast Networks for Video Recognition
Arxiv
4+阅读 · 2019年4月18日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关资讯
已删除
将门创投
12+阅读 · 2019年7月1日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
ActivityNet Challenge 2017 冠军方案分享
极市平台
4+阅读 · 2017年7月25日
Top
微信扫码咨询专知VIP会员