**随着大型模型的发展以及数据的爆炸性增长和可用性,深度学习在众多现实应用中取得了巨大而广泛的突破。**然而,深度学习模型通常具有过高的计算和内存成本,不适合在移动设备或边缘设备上进行实际部署。此外,深度学习模型面临着学习和快速适应的挑战,从只有几个例子来解决新的任务。因此,本文提出了学习计算效率高的模型架构的技术和提高少样本学习能力的方法。**我们从子空间分析方法及其在特征选择问题中的应用开始。然后将这些方法扩展到深度神经网络结构学习(deep neural network structural learning, SL)中,目的是减少冗余参数,以获得能够保持甚至提高精度的最优降维模型。**还介绍了基于混合剪枝-再生长技术的更高效的SL方法和可以跨更多维度降低模型的更通用的SL方法。除了静态模型设计之外,本文还提出了动态神经网络方法,可以在推理过程中根据不同的输入动态调整模型权重和结构,以控制计算效率并提高表示能力。除了模型效率外,还提出了训练模型的技术,可以从几个例子中快速泛化。本文提出一种少样本架构自适应方法,通过元学习一个任务感知架构控制器,为不同的少样本任务定制特定于任务的模型结构。与传统的NAS方法需要对每个新任务进行单独的搜索成本不同,所提出方法在一次性元训练成本后,在几分钟内从GPU数据集中直接生成特定于任务的模型结构。最后,提出了一种基于语言辅助表示的掩码图像预训练的跨模态自监督学习框架。由此产生的模型产生了高质量的可迁移表示,提高了许多计算机视觉任务的准确性,并对对抗性/分布外样本表现出强大的鲁棒性。所产生的模型适用于结构学习以获得更大的计算效率,也适用于低资源任务适应以获得更好的数据效率。

https://dataspace.princeton.edu/handle/88435/dsp01p8418r442

成为VIP会员查看完整内容
58

相关内容

普林斯顿大学,又译 普林斯敦大学,常被直接称为 普林斯顿,是美国一所私立研究型大学,现为八所常青藤学校之一,绰号为老虎。
【EPFL博士论文】基于transformer的高效语音识别,162页pdf
专知会员服务
42+阅读 · 2023年2月18日
【CMU博士论文】高效自然语言生成,203页pdf
专知会员服务
31+阅读 · 2023年2月17日
【普林斯顿博士论文】构建高效深度神经网络,195页pdf
专知会员服务
62+阅读 · 2023年2月8日
【普林斯顿博士论文】神经符号机器学习推理,133页pdf
专知会员服务
45+阅读 · 2023年2月1日
【伯克利博士论文】硬件感知的高效深度学习,154页pdf
专知会员服务
70+阅读 · 2022年10月20日
【MIT博士论文】数据高效强化学习,176页pdf
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
24+阅读 · 2021年1月25日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员