In this paper, we conduct a study to optimize resource allocation for adaptive real-time and delay-tolerant applications in cellular systems. To represent the user applications via several devices and equipment, sigmoidal-like and logarithm utility functions are used. A fairness proportional utility functions policy approach is used to allocate the resources among the user equipment (UE)s in a utility percentage form and to ensure a minimum level of customer satisfaction for all the subscribers. Meanwhile, the priority of resources allocation is given to the real-time applications. We measure the effect of the stochastic variations of the adaptive real-time applications on the optimal rate allocation process and compare the results of deterministic and stochastic systems. Our work is distinct from the other resource allocation optimization works in that we use bisection method besides convex optimization techniques to optimally allocate rates, and we present the adaptive real- time applications in a stochastic form. We use Microsoft Visual Basic for Applications with Arena Simulation Software interface to simulate the optimization problem. Finally, we present our optimization algorithm results.


翻译:在本文中,我们进行了一项研究,以优化移动电话系统中适应性实时和耐延迟应用的资源分配; 通过若干装置和设备代表用户应用程序, 使用模拟式和对数通用功能; 使用一种公平比例的通用功能政策办法, 以通用百分比的形式在用户设备之间分配资源, 并确保所有订户的客户满意度达到最低水平; 同时, 将资源分配的优先顺序赋予实时应用程序; 我们测量适应性实时应用的随机变化对最佳比率分配过程的影响, 比较确定性和随机系统的结果; 我们的工作不同于其他资源分配优化工作, 我们使用除配置式优化技术之外的两部分方法优化费率, 并以随机格式介绍适应性实时应用程序。 我们使用微软视觉基础应用与阿伦纳模拟软件界面模拟优化问题。 最后, 我们展示了优化算法结果。

0
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
106+阅读 · 2020年5月15日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
3+阅读 · 2018年1月31日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员