元学习算法能够利用先前学习的知识来学习新任务,但它们通常需要大量的元训练任务,而这些任务可能并不容易获得。为了解决这个问题,我们提出了一种用更少任务进行小样本学习的方法,我们称之为 MetaModulation(元调制)。关键的想法是通过在元训练期间调节批量归一化参数,使用神经网络增加元训练任务的密度。此外,我们在各种网络层面,而非仅在单一层面,修改参数以增加任务多样性。为了解决由于训练任务有限而导致的不确定性,我们提出了一种变分元调制方法,其中调制参数被视为隐变量。我们还引入了通过变分元调制学习的变分特征层次结构,这种调制可以调节所有层面的特征,并能考虑任务不确定性,生成更多样化的任务。消融研究显示了在不同层面利用可学习的任务调制的优点,并证明了在少任务元学习中加入概率变体的好处。我们的元调制及其变分变体在四个少任务元学习基准测试中均一致优于当前最先进的替代方案。

https://www.zhuanzhi.ai/paper/6bad681ebd0c520eacc14067e18627dc

成为VIP会员查看完整内容
32

相关内容

【ICML2023】特征和标签偏移下时间序列的域适应
专知会员服务
24+阅读 · 2023年4月26日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
23+阅读 · 2021年10月20日
专知会员服务
13+阅读 · 2021年10月9日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
18+阅读 · 2021年9月13日
专知会员服务
31+阅读 · 2021年7月15日
专知会员服务
26+阅读 · 2021年7月11日
【ICML2022教程】智能交互式学习,80页ppt
专知
0+阅读 · 2022年7月22日
【ICML2022】通过能量最小化学习迭代推理
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年7月4日
Correction of overfitting bias in regression models
Arxiv
0+阅读 · 2023年7月3日
Arxiv
0+阅读 · 2023年7月1日
Learning Implicit Fields for Generative Shape Modeling
Arxiv
10+阅读 · 2018年12月6日
VIP会员
相关VIP内容
【ICML2023】特征和标签偏移下时间序列的域适应
专知会员服务
24+阅读 · 2023年4月26日
【ICML2022】MetAug:通过元特征增强的对比学习
专知会员服务
24+阅读 · 2022年5月20日
【AAAI2022】跨域少样本图分类
专知会员服务
29+阅读 · 2022年1月22日
专知会员服务
23+阅读 · 2021年10月20日
专知会员服务
13+阅读 · 2021年10月9日
专知会员服务
23+阅读 · 2021年9月22日
专知会员服务
18+阅读 · 2021年9月13日
专知会员服务
31+阅读 · 2021年7月15日
专知会员服务
26+阅读 · 2021年7月11日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
8+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员