This paper considers a variant of the online paging problem, where the online algorithm has access to multiple predictors, each producing a sequence of predictions for the page arrival times. The predictors may have occasional prediction errors and it is assumed that at least one of them makes a sublinear number of prediction errors in total. Our main result states that this assumption suffices for the design of a randomized online algorithm whose time-average regret with respect to the optimal offline algorithm tends to zero as the time tends to infinity. This holds (with different regret bounds) for both the full information access model, where in each round, the online algorithm gets the predictions of all predictors, and the bandit access model, where in each round, the online algorithm queries a single predictor. While online algorithms that exploit inaccurate predictions have been a topic of growing interest in the last few years, to the best of our knowledge, this is the first paper that studies this topic in the context of multiple predictors. Moreover, to the best of our knowledge, this is also the first paper that aims for (and achieves) online algorithms with a vanishing regret for a classic online problem under reasonable assumptions.


翻译:本文考虑了在线定位问题的变体, 在线算法可以访问多个预测器, 每一个都生成了页面到达时间的预测序列。 预测器可能会偶尔出现预测错误, 并且假设其中至少有一个会产生一个子线性预测错误。 我们的主要结果表明, 这个假设足以设计随机化的在线算法, 其时间平均对最佳离线算法的遗憾往往为零, 因为时间倾向于无限。 这( 具有不同的遗憾界限 ), 既包括完整的信息访问模型, 在每个回合中, 在线算法都能得到所有预测器的预测, 也包括带宽访问模型, 在每回合中, 在线算法询问一个单一预测器。 尽管利用不准确预测的在线算法在过去几年中引起了越来越多的兴趣, 据我们所知, 这是第一个在多个预测器中研究这个话题的论文。 此外, 根据我们所知, 这还是第一个旨在( 并实现) 在线算法, 在合理的假设下, 以迷惑为典型的在线算法的( ) 实现( ) 。

0
下载
关闭预览

相关内容

【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
89+阅读 · 2019年10月10日
Yoshua Bengio,使算法知道“为什么”
专知会员服务
7+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
手写决策树
七月在线实验室
4+阅读 · 2017年9月20日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年1月6日
Arxiv
0+阅读 · 2021年1月5日
Arxiv
0+阅读 · 2021年1月5日
Arxiv
0+阅读 · 2021年1月5日
SepNE: Bringing Separability to Network Embedding
Arxiv
3+阅读 · 2019年2月26日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
15+阅读 · 2018年12月24日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
手写决策树
七月在线实验室
4+阅读 · 2017年9月20日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员