在本研究中,我们解决了视频类增量学习(Video Class-Incremental Learning, VCIL)问题。许多现有的 VCIL 方法通过在情景记忆(episodic memory)中存储少量时间密集的样本,并进行复现训练来缓解灾难性遗忘,但这在内存使用上效率低下。另一类方法则存储时间稀疏的样本,虽然节省了内存,却牺牲了关键的时间信息,从而导致性能下降。 为解决这一内存效率与性能之间的权衡,我们提出了一种新的方法——ESSENTIAL(EpiSodic and SEmaNTIc memory integrAtion for video class-incremental Learning)。ESSENTIAL 包含两部分: * 情景记忆(episodic memory):用于存储时间稀疏的特征; * 语义记忆(semantic memory):通过可学习的提示(learnable prompts)存储一般性知识。

我们进一步提出了一个新颖的记忆检索(Memory Retrieval, MR)模块,通过交叉注意力机制(cross-attention)整合情景记忆和语义提示,使得系统能够从时间稀疏特征中检索出时间密集的特征。 我们在多个数据集上对 ESSENTIAL 进行了严格验证:在 TCD 基准中使用 UCF-101、HMDB51 和 Something-Something-V2,在 vCLIMB 基准中使用 UCF-101、ActivityNet 和 Kinetics-400。值得注意的是,在显著减少内存需求的情况下,ESSENTIAL 在这些基准上依然取得了优异的性能。

成为VIP会员查看完整内容
1

相关内容

【ICML2022】DRIBO:基于多视图信息瓶颈的鲁棒深度强化学习
【AAAI2023】用于图对比学习的谱特征增强
专知
20+阅读 · 2022年12月11日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
171+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
476+阅读 · 2023年3月31日
Arxiv
78+阅读 · 2023年3月26日
Arxiv
173+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2013年12月31日
国家自然科学基金
11+阅读 · 2012年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员