A massive number of well-trained deep networks have been released by developers online. These networks may focus on different tasks and in many cases are optimized for different datasets. In this paper, we study how to exploit such heterogeneous pre-trained networks, known as teachers, so as to train a customized student network that tackles a set of selective tasks defined by the user. We assume no human annotations are available, and each teacher may be either single- or multi-task. To this end, we introduce a dual-step strategy that first extracts the task-specific knowledge from the heterogeneous teachers sharing the same sub-task, and then amalgamates the extracted knowledge to build the student network. To facilitate the training, we employ a selective learning scheme where, for each unlabelled sample, the student learns adaptively from only the teacher with the least prediction ambiguity. We evaluate the proposed approach on several datasets and experimental results demonstrate that the student, learned by such adaptive knowledge amalgamation, achieves performances even better than those of the teachers.


翻译:开发者在线发布了大量训练有素的深层网络。 这些网络可能侧重于不同的任务, 在许多情况下, 优化了不同的数据集。 在本文中, 我们研究如何利用这些不同的预培训前网络, 被称为教师, 以便训练一个定制的学生网络, 解决用户定义的一组选择性任务。 我们假设没有人文说明, 每个教师可能是单项或多任务。 为此, 我们引入了双步战略, 首先从共享相同子任务的多样化教师中提取任务特有知识, 然后将提取的知识集中起来建立学生网络。 为了便利培训, 我们采用了选择性的学习计划, 在每个未标注的样本中, 学生只从教师那里适应性地学习, 且预测的模糊性最小。 我们评估了几个数据集的拟议方法和实验结果, 表明学生通过这种适应性知识的合并学习, 取得了比教师更好的业绩。

0
下载
关闭预览

相关内容

图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
已删除
Arxiv
31+阅读 · 2020年3月23日
Arxiv
14+阅读 · 2019年11月26日
Arxiv
4+阅读 · 2018年7月4日
VIP会员
相关VIP内容
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
94+阅读 · 2020年3月25日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Top
微信扫码咨询专知VIP会员