We develop a Markovian framework for load balancing where classical algorithms such as Power-of-$d$ are combined with auto-scaling mechanisms, which allow the net service capacity to scale up or down in response to the current load within the same timescale of job dynamics. Our framework is inspired by serverless platforms such as Knative where servers are software functions that can be flexibly instantiated in milliseconds according to scaling rules defined by the users of the serverless platform. The main question is how to design such scaling rules to minimize user-perceived delay performance while guaranteeing low energy consumption. For the first time, we investigate this problem when the auto-scaling and load balancing processes operate \emph{asynchronously}, as in Knative. One advantage induced by asynchronism is that jobs do not necessarily need to wait any time a scale-up decision is taken. In our main result, we find a general condition on the structure of scaling rules able to drive mean-field dynamics to delay and relative energy optimality, i.e., a situation where both the user-perceived delay and the relative energy wastage induced by idle servers vanish in the limit where the network demand grows to infinity in proportion to the nominal service capacity. The identified condition suggests to scale up the current net capacity if and only if the mean demand exceeds the rate at which servers become idle and active. Finally, we propose \emph{Rate-Idle}, i.e., a scaling rule that satisfies our optimality condition, and by means of numerical simulations, we show that it improves delay performance over existing (synchronous) schemes.


翻译:我们开发了一个马尔可夫框架,用于负载平衡,在该框架中,将经典算法(例如 Power-of-$d$ 算法)与自动缩放机制相结合,该机制允许净服务容量根据当前负载在作业动态的同一时间范围内向上或向下缩放。我们的框架受服务器无状态平台(例如 Knative)的启发,其中服务器是可以根据服务器无状态平台的用户定义的缩放规则在毫秒级别内灵活实例化的软件函数。主要问题是如何设计这样的缩放规则,以在保证低能耗的同时最小化用户感知的延迟性能。我们首次研究了当自动缩放和负载平衡过程异步运行时(如 Knative)会发生什么。异步性带来的一个好处是,在做出扩展决策时,作业不需要等待任何时间。在我们的主要结果中,我们找到了适用于驱动均值场动态到延迟和相对能源最优性的缩放规则结构的一般条件,即,在网络需求与名义服务容量按比例增长到无穷大的极限情况下,用户感知的延迟和因空闲服务器而产生的相对能量浪费均消失。所确定的条件表明,只有当平均需求超过服务器变为空闲和活动状态的速率时,才需要扩展当前的净容量。最后,我们提出了一个满足我们最优条件的缩放规则——“Rate-Idle”。通过数值模拟,我们表明它可以改善延迟性能优于现有(同步)方案。

0
下载
关闭预览

相关内容

【干货书】工程和科学中的概率和统计,
专知会员服务
57+阅读 · 2022年12月24日
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
115+阅读 · 2022年4月21日
【干货书】面向计算科学和工程的Python导论,167页pdf
专知会员服务
41+阅读 · 2021年4月7日
CUDA编程:矩阵乘运算从CPU到GPU
极市平台
1+阅读 · 2022年10月31日
使用 Jetpack Compose 实现精美动画
谷歌开发者
0+阅读 · 2022年6月7日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
R工程化—Rest API 之plumber包
R语言中文社区
11+阅读 · 2018年12月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Spark机器学习:矩阵及推荐算法
LibRec智能推荐
15+阅读 · 2017年8月3日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
VIP会员
相关VIP内容
【干货书】工程和科学中的概率和统计,
专知会员服务
57+阅读 · 2022年12月24日
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
115+阅读 · 2022年4月21日
【干货书】面向计算科学和工程的Python导论,167页pdf
专知会员服务
41+阅读 · 2021年4月7日
相关资讯
CUDA编程:矩阵乘运算从CPU到GPU
极市平台
1+阅读 · 2022年10月31日
使用 Jetpack Compose 实现精美动画
谷歌开发者
0+阅读 · 2022年6月7日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
R工程化—Rest API 之plumber包
R语言中文社区
11+阅读 · 2018年12月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】(Keras)LSTM多元时序预测教程
机器学习研究会
24+阅读 · 2017年8月14日
Spark机器学习:矩阵及推荐算法
LibRec智能推荐
15+阅读 · 2017年8月3日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员