开放世界本质上是动态的,其特征是不断演变的概念和分布。在这种动态开放世界环境中,持续学习 (CL) 面临着如何有效泛化到未见测试类别的重大挑战。为应对这一挑战,我们引入了一种新的实际 CL 设置,专为开放世界的视觉表征学习设计。在该设置中,后续数据流系统地引入了与先前训练阶段中所见类别不相交的全新类别,同时这些类别也与未见测试类别保持区别。对此,我们提出了动态提示与表征学习器 (DPaRL),这是一种简单但有效的基于提示的持续学习 (PCL) 方法。我们的 DPaRL 学会为推理生成动态提示,而不是依赖于以往 PCL 方法中的静态提示池。此外,DPaRL 在每个训练阶段共同学习动态提示生成和判别性表征,而以往的 PCL 方法仅在整个过程中细化提示学习。实验结果表明,我们的方法优于现有的最先进方法,在公认的开放世界图像检索基准上平均提高了 4.7% 的 Recall@1 性能。

成为VIP会员查看完整内容
25

相关内容

【NeurIPS2023】跨情境课程设计的Transformer智能体
专知会员服务
27+阅读 · 2023年10月14日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
46+阅读 · 2022年7月10日
专知会员服务
35+阅读 · 2021年9月18日
综述| 当图神经网络遇上强化学习
图与推荐
35+阅读 · 2022年7月1日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
A Survey of Large Language Models
Arxiv
494+阅读 · 2023年3月31日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】跨情境课程设计的Transformer智能体
专知会员服务
27+阅读 · 2023年10月14日
【NAACL2022】自然语言处理的对比数据与学习
专知会员服务
46+阅读 · 2022年7月10日
专知会员服务
35+阅读 · 2021年9月18日
相关资讯
综述| 当图神经网络遇上强化学习
图与推荐
35+阅读 · 2022年7月1日
【KDD2020】图神经网络生成式预训练
专知
23+阅读 · 2020年7月3日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
相关论文
微信扫码咨询专知VIP会员