Mobile Edge Computing (MEC) has been regarded as a promising paradigm to reduce service latency for data processing in the Internet of Things, by provisioning computing resources at the network edge. In this work, we jointly optimize the task partitioning and computational power allocation for computation offloading in a dynamic environment with multiple IoT devices and multiple edge servers. We formulate the problem as a Markov decision process with constrained hybrid action space, which cannot be well handled by existing deep reinforcement learning (DRL) algorithms. Therefore, we develop a novel Deep Reinforcement Learning called Dirichlet Deep Deterministic Policy Gradient (D3PG), which is built on Deep Deterministic Policy Gradient (DDPG) to solve the problem. The developed model can learn to solve multi-objective optimization, including maximizing the number of tasks processed before expiration and minimizing the energy cost and service latency.} More importantly, D3PG can effectively deal with constrained distribution-continuous hybrid action space, where the distribution variables are for the task partitioning and offloading, while the continuous variables are for computational frequency control. Moreover, the D3PG can address many similar issues in MEC and general reinforcement learning problems. Extensive simulation results show that the proposed D3PG outperforms the state-of-art methods.


翻译:通过在网络边缘提供计算资源,移动边缘计算(MEC)被认为是一个大有希望的范例,通过在网络边缘提供计算资源,减少在物联网互联网数据处理方面的服务延迟。在这项工作中,我们共同优化任务分配和计算能力分配,以便在多IoT装置和多边缘服务器的动态环境中计算卸载。我们把这个问题发展成一个有限制混合行动空间的Markov决策程序,这无法通过现有的深度强化学习(DRL)算法来很好地处理。因此,我们开发了一个新的深层强化学习,称为D3PG(D3PG),它建立在深层确定性政策梯度梯度梯度(DPG)上,以解决问题。开发的模型可以学会解决多目标优化,包括最大限度地增加在到期前处理过的任务数量,并尽量减少能源成本和服务弹性。}更重要的是,D3PGPG可以有效地处理有限的分配持续性混合行动空间,在那里分配变量用于任务分配和卸载,而连续变量用于计算频率控制。此外,D3GPG3的升级模型可以解决许多类似的问题。

0
下载
关闭预览

相关内容

专知会员服务
30+阅读 · 2021年6月12日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
76+阅读 · 2020年7月26日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
顶会论文 || 65篇"IJCAI"深度强化学习论文汇总
深度强化学习实验室
3+阅读 · 2020年3月15日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
OpenAI丨深度强化学习关键论文列表
中国人工智能学会
17+阅读 · 2018年11月10日
【OpenAI】深度强化学习关键论文列表
专知
11+阅读 · 2018年11月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Curiosity-driven Exploration 好奇心代码阅读
CreateAMind
4+阅读 · 2018年3月15日
Arxiv
0+阅读 · 2022年2月18日
VIP会员
相关资讯
顶会论文 || 65篇"IJCAI"深度强化学习论文汇总
深度强化学习实验室
3+阅读 · 2020年3月15日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
OpenAI丨深度强化学习关键论文列表
中国人工智能学会
17+阅读 · 2018年11月10日
【OpenAI】深度强化学习关键论文列表
专知
11+阅读 · 2018年11月10日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Curiosity-driven Exploration 好奇心代码阅读
CreateAMind
4+阅读 · 2018年3月15日
Top
微信扫码咨询专知VIP会员