Learning with limited data is one of the biggest problems of machine learning. Current approaches to this issue consist in learning general representations from huge amounts of data before fine-tuning the model on a small dataset of interest. While such technique, coined transfer learning, is very effective in domains such as computer vision or natural langage processing, it does not yet solve common problems of deep learning such as model interpretability or the overall need for data. This thesis explores a different answer to the problem of learning expressive models in data constrained settings: instead of relying on big datasets to learn neural networks, we will replace some modules by known functions reflecting the structure of the data. Very often, these functions will be drawn from the rich literature of kernel methods. Indeed, many kernels can reflect the underlying structure of the data, thus sparing learning parameters to some extent. Our approach falls under the hood of "inductive biases", which can be defined as hypothesis on the data at hand restricting the space of models to explore during learning. We demonstrate the effectiveness of this approach in the context of sequences, such as sentences in natural language or protein sequences, and graphs, such as molecules. We also highlight the relationship between our work and recent advances in deep learning. Additionally, we study convex machine learning models. Here, rather than proposing new models, we wonder which proportion of the samples in a dataset is really needed to learn a "good" model. More precisely, we study the problem of safe sample screening, i.e, executing simple tests to discard uninformative samples from a dataset even before fitting a machine learning model, without affecting the optimal model. Such techniques can be used to prune datasets or mine for rare samples.


翻译:以有限的数据进行学习是机器学习的最大问题之一。 这一问题的当前方法包括:在微调模型之前,先从大量数据中从大量数据中学习一般表述,然后再微调一个引起兴趣的小数据集。 虽然这种技术,即硬转式学习,在计算机视觉或自然兰格处理等领域非常有效,但它还不能解决深层次学习的常见问题,例如模型解释性或数据的总体需要。 这个论文探讨了在数据限制环境中学习表达模型的答案不同:我们不用依靠大数据集来学习神经网络,而是用反映数据结构的已知功能来取代一些模块。非常经常地,这些功能将从丰富的内核方法的文献中提取。 事实上,许多内核网络可以反映数据的基本结构,从而在某种程度上保留学习参数。 我们的方法在“诱导偏偏偏偏偏偏偏”的阴影之下,这可以被定义为在模型上对模型进行精确探索的空间的假设。 我们甚至可以展示这种方法在序列中的有效性,例如影响数据结构结构结构的句子或蛋白质序列序列中的计算, 和图表中我们需要一种新的数据, 在模型中学习新的模型中,我们需要一种新的数据, 学习一个新的模型, 学习一个新的模型,我们需要一个新的模型, 学习一个新的模型, 学习一个新的模型,我们需要一个新的, 学习一个新的, 学习一个新的, 学习一个新的, 学习一个新的, 学习一个新的模型, 学习一个新的,我们在这里学习一个新的, 学习一个新的, 学习一个新的, 学习一个新的, 学习一个, 学习一个新的, 学习一个新的, 学习一个新的,, 学习一个,,,, 学习一个,在机器的,在机器的,在机器的,在机器的, 学习一个, 学习一个, 学习一个, 学习一个,在机器的, 学习一个新的, 学习一个, 学习一个新的, 学习, 学习一个,在新的,在机器的, 模型, 模型, 学习一个, 学习一个, 学习一个, 学习一个,在新的,在新的,在新的,在新的,,,,在新的,在新的,在新的,在新的,在新的,我们学习,在新的,在新的,在新的, 模型,,,

0
下载
关闭预览

相关内容

【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
14+阅读 · 2022年10月15日
Arxiv
19+阅读 · 2022年7月29日
Arxiv
22+阅读 · 2022年2月24日
Arxiv
35+阅读 · 2021年8月2日
Arxiv
12+阅读 · 2019年3月14日
VIP会员
相关VIP内容
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
9+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员