在类增量学习(CIL)场景中,分类器对当前任务的偏好引起的灾难性遗忘现象长期以来一直是一个重大挑战。这主要是由判别模型的特性所引起的。随着生成式多模态模型的日益流行,我们将探索用生成模型替换判别模型以用于CIL。然而,从判别模型转向生成模型需要解决两个关键挑战。主要挑战在于将生成的文本信息转换为不同类别的分类。此外,它还需要在生成框架内制定CIL的任务。为此,我们提出了一种新颖的生成式多模态模型(GMM)框架用于类增量学习。我们的方法直接使用适配的生成模型为图像生成标签。获取详细文本后,我们使用文本编码器提取文本特征,并采用特征匹配来确定最相似的标签作为分类预测。在传统的CIL设置中,我们在长序列任务场景中取得了显著更好的结果。在少量样本CIL设置下,我们的准确度至少提高了14%,相比所有当前最先进的方法有显著更少的遗忘。我们的代码可在 https://github.com/DoubleClass/GMM 获取。

成为VIP会员查看完整内容
28

相关内容

【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
【NeurIPS2023】大型语言模型是零样本的时间序列预测者
专知会员服务
45+阅读 · 2023年10月13日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
22+阅读 · 2021年5月23日
【AAAI2023】用于图对比学习的谱特征增强
专知
18+阅读 · 2022年12月11日
【CVPR2021】跨模态检索的概率嵌入
专知
16+阅读 · 2021年3月2日
【AAAI2021】自监督对应学习的对比转换
专知
12+阅读 · 2020年12月11日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
130+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
321+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
14+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【NeurIPS2023】将持续学习重新定义为序列建模
专知会员服务
31+阅读 · 2023年10月19日
【NeurIPS2023】大型语言模型是零样本的时间序列预测者
专知会员服务
45+阅读 · 2023年10月13日
专知会员服务
21+阅读 · 2021年9月27日
专知会员服务
11+阅读 · 2021年7月16日
专知会员服务
22+阅读 · 2021年5月23日
相关基金
国家自然科学基金
13+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员