Continual learning for video--language understanding is increasingly important as models face non-stationary data, domains, and query styles, yet prevailing solutions blur what should stay stable versus what should adapt, rely on static routing/capacity, or require replaying past videos. We aim to explicitly specify where stability lives and where plasticity should be focused under realistic memory and privacy constraints. We introduce Affordance-First Decomposition (AFD): videos are mapped to slowly varying affordance tokens that form a shared, time-aligned substrate, while a lightweight, query-routed, conflict-aware scheduler concentrates adaptation and grows capacity only when needed. The substrate is stabilized via weak alignment and teacher consistency, and training uses question-only replay. AFD achieves state-of-the-art across protocols: 51.6% average accuracy with -1.8% forgetting on domain-incremental VideoQA, ViLCo R@1@0.5 of 29.6% (MQ) and 20.7% (NLQ) with 18.4% stAP@0.25 (VQ), and 39.5% accuracy with -1.6% forgetting on time-incremental iVQA. Overall, AFD offers an explicit, interpretable split between a stable interaction-centered substrate and targeted adaptation.


翻译:随着模型面临非平稳数据、领域和查询风格,视频-语言理解的持续学习日益重要,然而现有解决方案往往模糊了应保持稳定与应适应变化之间的界限,依赖静态路由/容量机制,或需要重放历史视频。本研究旨在明确指定在现实内存与隐私约束下,稳定性应驻留何处以及可塑性应聚焦于何处。我们提出可供性优先分解方法:将视频映射为缓慢变化的可供性标记,这些标记构成共享的、时间对齐的基础层;同时,一个轻量级、查询路由、冲突感知的调度器仅在需要时集中进行适应并扩展容量。该基础层通过弱对齐和教师一致性实现稳定化,训练过程仅使用问题重放。AFD在多种协议下达到最先进性能:在领域增量视频问答中平均准确率达51.6%,遗忘率为-1.8%;在ViLCo任务中R@1@0.5指标达29.6%(MQ)和20.7%(NLQ),VQ任务中stAP@0.25达18.4%;在时间增量iVQA任务中准确率达39.5%,遗忘率为-1.6%。总体而言,AFD在稳定的交互中心基础层与针对性适应之间提供了明确且可解释的分离机制。

0
下载
关闭预览

相关内容

UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
【CVPR 2020 Oral】小样本类增量学习
专知
20+阅读 · 2020年6月26日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员