Caching is an efficient way to reduce network traffic congestion during peak hours by storing some content at the users' local caches. For the shared-link network with end-user-caches, Maddah-Ali and Niesen proposed a two-phase coded caching strategy. In practice, users may communicate with the server through intermediate relays. This paper studies the tradeoff between the memory size $M$ and the network load $R$ for networks where a server with $N$ files is connected to $H$ relays (without caches), which in turn are connected to $K$ users equipped with caches of $M$ files. When each user is connected to a different subset of $r$ relays, i.e., $K = \binom{H}{r}$, the system is referred to as a {\it combination network with end-user-caches}. In this work, converse bounds are derived for the practically motivated case of {\it uncoded} cache contents, that is, bits of the various files are directly pushed into the user caches without any coding. In this case, once the cache contents and the user demands are known, the problem reduces to a general index coding problem.This paper shows that relying on a well-known "acyclic index coding converse bound" results in converse bounds that are not tight for combination networks with end-user-caches. A novel converse bound that leverages the network topology is proposed, which is the tightest converse bound known to date. As a result of independent interest, an inequality that generalizes the well-known sub-modularity of entropy is derived. Several novel caching schemes are proposed, based on the Maddah-Ali and Niesen cache placement. The proposed schemes are proved: (i) to be (order) optimal for some $(N,M,H,r)$ parameters regimes under the constraint of uncoded cache placement, and (ii) to outperform the state-of-the-art schemes in numerical evaluations.


翻译:缓冲是减少高峰时段网络交通堵塞的有效方法, 其方法是将一些内容存储在用户的本地缓存处。 对于配有终端用户缓存的共享链接网络, Maddah- Ali 和 Niesen 提出了双阶段代码缓存策略。 实际上, 用户可以通过中间中继器与服务器进行沟通。 本文研究存储规模 $M$ 和网络装载 $R$ 的网络之间的权衡。 在这项工作中, 带有 $N 的服务器连接到 $H 的转发器( 没有缓存), 而这些服务器又与 $$ 的缓存连接到 $ 。 当每个用户被连接到不同的 $ 美元中, Maddddddah- Ali 和 Niesen 缓存的共享网络, 即 $ $, $ $K $ =\ hdrecodedededection, 这个预言中, 预言中的预言中, 预言中的预言 将是一个默认 。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
113+阅读 · 2020年10月8日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【高能所】如何做好⼀份学术报告& 简单介绍LaTeX 的使用
专知会员服务
60+阅读 · 2020年3月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Keras实例:PointNet点云分类
专知
6+阅读 · 2020年5月30日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
SIGIR2019 接收论文列表
专知
18+阅读 · 2019年4月20日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
美国化学会 (ACS) 北京代表处招聘
知社学术圈
11+阅读 · 2018年9月4日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年6月6日
Arxiv
0+阅读 · 2021年6月5日
Arxiv
20+阅读 · 2021年2月28日
Arxiv
3+阅读 · 2018年10月18日
VIP会员
相关VIP内容
【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
113+阅读 · 2020年10月8日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【高能所】如何做好⼀份学术报告& 简单介绍LaTeX 的使用
专知会员服务
60+阅读 · 2020年3月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
相关资讯
Keras实例:PointNet点云分类
专知
6+阅读 · 2020年5月30日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:位置感知的长序列会话推荐
LibRec智能推荐
3+阅读 · 2019年5月17日
计算机 | 中低难度国际会议信息6条
Call4Papers
7+阅读 · 2019年5月16日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
SIGIR2019 接收论文列表
专知
18+阅读 · 2019年4月20日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
美国化学会 (ACS) 北京代表处招聘
知社学术圈
11+阅读 · 2018年9月4日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员