本论文的核心目标是通过提高深度学习模型的标签和训练效率来增强深度学习的实用性。为此,我们研究了基于信息论原理的数据子集选择技术,特别是主动学习和主动采样。主动学习提高了标签效率,而主动采样提高了训练效率。监督式深度学习模型通常需要大量的带标签数据进行训练。标签获取可能既昂贵又耗时,且训练大型模型资源密集型,这限制了其在学术研究和“大科技”公司之外的应用。深度学习中现有的数据子集选择方法通常依赖于启发式方法或缺乏一个原理化的信息论基础。相比之下,本论文检查了数据子集选择的几种目标及其在深度学习中的应用,力求采用一种由信息论启发的更原理化的方法。

我们首先在单次前向传播的深度神经网络中区分了认知不确定性和随机不确定性,这提供了有用的直觉和洞见,关于不同形式的不确定性及其对数据子集选择的相关性。然后,我们提出并研究了在(贝叶斯)深度学习中进行主动学习和数据子集选择的各种方法。最后,我们将各种现有和提出的方法与在权重或预测空间中信息量的近似联系起来。

支撑这项工作的是一个原理化且实用的信息论量符号,包括随机变量和观察到的结果。这篇论文展示了从统一视角出发工作的好处,并强调了我们的贡献对深度学习实际应用潜在影响的可能性。

成为VIP会员查看完整内容
35

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
【CMU博士论文】以人为中心的机器学习:统计和算法视角
专知会员服务
38+阅读 · 2023年10月1日
【伯克利博士论文】学习跨领域的可迁移表示
专知会员服务
45+阅读 · 2022年8月17日
【多伦多大学博士论文】深度学习中的训练效率和鲁棒性
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
深入卷积神经网络背后的数学原理
人工智能学家
10+阅读 · 2019年4月26日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
14+阅读 · 2019年1月24日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
23+阅读 · 2018年2月27日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
Arxiv
131+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
324+阅读 · 2023年3月31日
Arxiv
53+阅读 · 2023年3月26日
Arxiv
111+阅读 · 2023年3月24日
Arxiv
14+阅读 · 2023年3月17日
VIP会员
相关资讯
论文浅尝 | 采用多层注意力机制的事件检测
开放知识图谱
23+阅读 · 2019年8月24日
深入卷积神经网络背后的数学原理
人工智能学家
10+阅读 · 2019年4月26日
【机器学习】深入剖析机器学习中的统计思想
产业智能官
14+阅读 · 2019年1月24日
SFFAI报告 | 常建龙 :深度卷积网络中的卷积算子研究进展
人工智能前沿讲习班
11+阅读 · 2018年10月22日
论文浅尝 | 基于置信度的知识图谱表示学习框架
开放知识图谱
23+阅读 · 2018年2月27日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
12+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员