Real-world videos contain many complex actions with inherent relationships between action classes. In this work, we propose an attention-based architecture that models these action relationships for the task of temporal action localization in untrimmed videos. As opposed to previous works that leverage video-level co-occurrence of actions, we distinguish the relationships between actions that occur at the same time-step and actions that occur at different time-steps (i.e. those which precede or follow each other). We define these distinct relationships as action dependencies. We propose to improve action localization performance by modeling these action dependencies in a novel attention-based Multi-Label Action Dependency (MLAD)layer. The MLAD layer consists of two branches: a Co-occurrence Dependency Branch and a Temporal Dependency Branch to model co-occurrence action dependencies and temporal action dependencies, respectively. We observe that existing metrics used for multi-label classification do not explicitly measure how well action dependencies are modeled, therefore, we propose novel metrics that consider both co-occurrence and temporal dependencies between action classes. Through empirical evaluation and extensive analysis, we show improved performance over state-of-the-art methods on multi-label action localization benchmarks(MultiTHUMOS and Charades) in terms of f-mAP and our proposed metric.


翻译:现实世界视频包含许多复杂的行动,具有行动类别之间固有的内在关系。 在这项工作中,我们建议一个基于关注的架构,在未剪动的视频中为时间行动定位任务模拟这些行动关系。与以前利用视频级行动共同发生的工作相比,我们区分同时发生的行动和在不同时间步骤(即先行或后行)发生的行动之间的关系。我们将这些不同关系定义为行动依赖关系。我们建议通过在新的关注型多周期行动依赖(MLAD)中建模这些行动依赖关系来改进行动本地化绩效。与以前利用视频级共同行动共同发生的工作不同,我们区分同时发生的行动和在不同时间步骤(即先行或后行的行动)发生的行动之间的关系。我们发现,目前用于多标签分类的衡量标准并不明确衡量行动依赖性,因此,我们提出了新的衡量标准,其中既考虑关注关联性,又考虑不同时间依赖性的多周期(MLADAD) 。通过对业绩和多年度评估方法进行我们之间业绩评估并展示行动基准。

3
下载
关闭预览

相关内容

专知会员服务
25+阅读 · 2021年4月2日
数字化健康白皮书,17页pdf
专知会员服务
104+阅读 · 2021年1月6日
多标签学习的新趋势(2020 Survey)
专知会员服务
41+阅读 · 2020年12月6日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
179+阅读 · 2020年4月26日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
无人机视觉挑战赛 | ICCV 2019 Workshop—VisDrone2019
PaperWeekly
7+阅读 · 2019年5月5日
简评 | Video Action Recognition 的近期进展
极市平台
20+阅读 · 2019年4月21日
已删除
将门创投
8+阅读 · 2019年3月18日
【跟踪Tracking】15篇论文+代码 | 中秋快乐~
专知
18+阅读 · 2018年9月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
读书报告 | Deep Learning for Extreme Multi-label Text Classification
科技创新与创业
48+阅读 · 2018年1月10日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员