We introduce and study the general setting of weighted search in which a number of targets, each with a certain weight, are hidden in a star-like environment that consists of $m$ infinite, concurrent rays, with a common origin. A mobile searcher, initially located at the origin, explores this environment so as to locate a set of targets whose aggregate weight is at least a given value $W$. The cost of the search strategy is defined as the total distance traversed by the searcher, and its performance is measured by the worst-case ratio of the cost incurred by the searcher over the cost of an on optimal, offline strategy with complete access to the instance. This is the first study of a setting that generalizes several problems in search theory: the problem in which only a single target is sought, as well as the problem in which all targets have unit weights. We present and analyze a search strategy of near-optimal performance for the problem at hand. We observe that the classical approaches that rely on geometrically increasing search depths perform rather poorly in the context of weighted search. We bypass this problem by using a strategy that modifies the search depths adaptively, depending on the number of targets located up to the current point in time.


翻译:我们介绍并研究加权搜索的总体设置,其中将一些目标(每个目标都有一定的重量)隐藏在一个恒星式环境中,由无限的、同时的射线组成,具有共同来源。一个最初位于原地的流动搜索器对这个环境进行探索,以便找到一组总重至少为给定值的一组目标。搜索战略的成本被定义为搜索者所选择的总距离,其性能的衡量标准是搜索者对一个最佳、离线、完全进入原地的战略的成本所花费的成本的最差比例。这是对一个概括了搜索理论中若干问题的设置的首次研究:只寻求一个目标的问题,以及所有目标都有单位重量的问题。我们提出并分析近优度业绩的搜索战略。我们观察到,在加权搜索的背景下,依赖几何加深搜索的典型方法效果相当差。我们通过使用调整当前搜索深度的战略绕过这个问题。我们根据时间调整了当前搜索深度的深度,根据时间调整了搜索的深度。

0
下载
关闭预览

相关内容

专知会员服务
59+阅读 · 2020年3月19日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Higher Order Targeted Maximum Likelihood Estimation
Arxiv
0+阅读 · 2021年6月23日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关VIP内容
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
carla 学习笔记
CreateAMind
9+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员