Given $k$ pre-trained classifiers and a stream of unlabeled data examples, how can we actively decide when to query a label so that we can distinguish the best model from the rest while making a small number of queries? Answering this question has a profound impact on a range of practical scenarios. In this work, we design an online selective sampling approach that actively selects informative examples to label and outputs the best model with high probability at any round. Our algorithm can be used for online prediction tasks for both adversarial and stochastic streams. We establish several theoretical guarantees for our algorithm and extensively demonstrate its effectiveness in our experimental studies.


翻译:鉴于培训前的分类师和一系列未贴标签的数据实例,我们如何积极决定何时查询标签,以便在进行少量查询的同时区分最佳模型和其余模型?回答这一问题对一系列实际情景具有深远影响。在这项工作中,我们设计了在线选择性抽样方法,积极选择信息性实例,在任何回合中以高概率标出和输出最佳模型。我们的算法可用于对对立和随机流的在线预测任务。我们为我们的算法建立了若干理论保障,并在实验研究中广泛展示其有效性。

0
下载
关闭预览

相关内容

【AAAI2021】小样本学习多标签意图检测
专知会员服务
54+阅读 · 2020年12月8日
近期必读的五篇KDD 2020【迁移学习 (TL) 】相关论文
专知会员服务
38+阅读 · 2020年8月25日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年6月9日
Adaptive transfer learning
Arxiv
0+阅读 · 2021年6月8日
Arxiv
0+阅读 · 2021年5月29日
Arxiv
7+阅读 · 2021年5月25日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Arxiv
10+阅读 · 2017年7月4日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年6月9日
Adaptive transfer learning
Arxiv
0+阅读 · 2021年6月8日
Arxiv
0+阅读 · 2021年5月29日
Arxiv
7+阅读 · 2021年5月25日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Arxiv
10+阅读 · 2017年7月4日
Arxiv
3+阅读 · 2016年2月24日
Top
微信扫码咨询专知VIP会员