Decentralized coded caching scheme, introduced by Maddah-Ali and Niesen, assumes that the caches are filled with no coordination. This work identifies a decentralized coded caching scheme -- under the assumption of uncoded placement -- for shared cache network, where each cache serves multiple users. Each user has access to only a single cache and the number of caches is less than or equal to the number of users. For this setting, we derive the optimal worst-case delivery time for any user-to-cache association profile where each such profile describes the number of users served by each cache. The optimality is shown using an index-coding based converse. Further, we improve the delivery scheme to accommodate redundant demands. Also, an optimal linear error correcting delivery scheme is proposed for the worst-case demand scenario. Next, we consider the Least Recently Sent (LRS) online coded caching scheme where the caches need to be updated based on the sequence of demands made by the users. Cache update happens if any of the demanded file was not partially cached at the users. The update is done by replacing the least recently sent file with the new file. But, the least recently sent file need not be unique. In that case, there needs to be some ordering of the files which are getting partially cached, or else centralized coordination would have to be assumed which does not exist. If each user removes any of the least recently used files at random, then the next delivery phase will not serve the purpose. A modification is suggested for the scheme by incorporating an ordering of files. Moreover, all the above results with shared caches are extended to the online setting.


翻译:Maddah- Ali 和 Niesen 推出的分层代码缓存方案, 假设由Maddah- Ali 和 Niesen 推出, 假设缓存的用户数量没有协调地填充缓存。 这项工作为共享缓存网络确定了一个分散的编码缓存方案 -- -- 在未编码的放置假设下 -- -- 每个缓存都为多个用户服务。 每个用户只能访问单一缓存, 缓存数量小于或等于用户数量。 对于此设置, 我们为任何用户对缓存的关联配置获取最坏的交付时间。 每个用户对缓存的配置描述每个用户服务用户数量。 优化的缓存显示为优化, 使用基于基于索引编码的对调试, 并且我们改进交付计划以适应冗余需求。 此外, 最优的线性修正交付计划是针对最短的线性错误。 下一步, 我们考虑最小的缓存计划需要根据用户的需求来更新。 假设, 任何需要的修改文件都会部分缓存在用户中出现。 更新后, 将使用最近发送的交付文件替换最近发送的最小的版本文件, 需要重新整理到新版本, 。 需要的是, 保存为最小的中央化为最小的版本。 。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
【新书】Python编程基础,669页pdf
专知会员服务
187+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
【TED】什么让我们生病
英语演讲视频每日一推
7+阅读 · 2019年1月23日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年3月18日
Arxiv
0+阅读 · 2021年3月17日
Arxiv
0+阅读 · 2021年3月17日
Arxiv
0+阅读 · 2021年3月17日
Logically-Constrained Reinforcement Learning
Arxiv
3+阅读 · 2018年12月6日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
【TED】什么让我们生病
英语演讲视频每日一推
7+阅读 · 2019年1月23日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员