In this paper, we analyze the effects of erroneous load comparisons on the performance of the Po2 scheme. Specifically, we consider load-dependent and load-independent errors. In the load-dependent error model, an incoming job is sent to the server with the larger queue length among the two sampled servers with probability $\epsilon$ if the difference in the queue lengths of the two sampled servers is less than or equal to a constant $g$; no error is made if the queue-length difference is higher than $g$. For this type of errors, we show that the benefits of the Po2 scheme is retained as long as the system size is sufficiently large and $\lambda$ is sufficiently close to $1$. Furthermore, we show that, unlike the standard Po2 scheme, the performance of the Po2 scheme under this type of errors can be worse than the random scheme if $\epsilon > 1/2$ and $\lambda$ is sufficiently small. In the load-independent error model, the incoming job is sent to the sampled server with the {\em maximum load} with an error probability of $\epsilon$ independent of the loads of the sampled servers. For this model, we show that the performance benefits of the Po2 scheme are retained only if $\epsilon \leq 1/2$; for $\epsilon > 1/2$ we show that the stability region of the system reduces and the system performs poorly in comparison to the {\em random scheme}.


翻译:在本文中, 我们分析错误的负载比较对 Po2 方案性能的影响。 具体地说, 我们考虑以负负负为主和以负负负为主的错误。 在依赖负负负的错误模型中, 输入的任务被发送到两个抽样服务器中队列长度较长的服务器上, 概率为$\ epsilon$, 如果两个抽样服务器队列长度的差异小于或等于恒定的$g$; 如果队列长度差高于$g$, 则没有错误。 对于这种类型的错误模型, 我们显示只要系统规模足够大且$\ lambda$足够接近$, 就会保留 Po2 计划的好处。 此外, 我们显示, 与标准的 Po2 计划不同的是, 如果 $\ eplon > 和 lambda$ 的队列长度差异足够小, 那么波2 计划的效果就会比随机方案差。 在重的错误模型中, 即将发送给抽样服务器 $xxxxxxxx 。 我们的系统运行 1 的系统性能 。</s>

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
71+阅读 · 2022年6月28日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月3日
Arxiv
14+阅读 · 2020年12月17日
VIP会员
相关VIP内容
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员