In a modern distributed storage system, storage nodes are organized in racks, and the cross-rack communication dominates the system bandwidth. In this paper, we focus on the rack-aware storage system. The initial setting was immediately repairing every single node failure. However, multiple node failures are frequent, and some systems may even wait for multiple nodes failures to occur before repairing them in order to keep costs down. For the purpose of still being able to repair them properly when multiple failures occur, we relax the repair model of the rack-aware storage system. In the repair process, the cross-rack connections (i.e., the number of helper racks connected for repair which is called repair degree) and the intra-rack connections (i.e., the number of helper nodes in the rack contains the failed node) are all reduced. We focus on minimizing the cross-rack bandwidth in the rack-aware storage system with multiple erasure tolerances. First, the fundamental tradeoff between the repair bandwidth and the storage size for functional repair is established. Then, the two extreme points corresponding to the minimum storage and minimum cross-rack repair bandwidth are obtained. Second, the explicitly construct corresponding to the two points are given. Both of them have minimum sub-packetization level (i.e., the number of symbols stored in each node) and small repair degree. Besides, the size of underlying finite field is approximately the block length of the code. Finally, for the convenience of practical use, we also establish a transformation to convert our codes into systematic codes.


翻译:在现代分布式储存系统中,存储节点组织在架子上,而跨架通信则控制着系统带宽。 在本文中,我们侧重于架式系统存储系统。 初始设置是立即修复每个节点故障。 但是,多个节点故障经常发生,有些系统甚至等待多个节点故障发生,然后才能修复,以降低成本。 为了在多次故障发生时仍然能够适当修复它们,我们放松了架式储存系统的修理模式。 在修理过程中,我们侧重于架式系统连接(即连接修理的扶轮系统套架数量,即所谓的修理程度)和架式内部连接(即,机型系统节点数包含故障节点)都有所减少。 我们的重点是将架式储存系统中的跨架带带带带带带带带带带尽可能小, 首先,修理带宽与功能修复的储存大小之间的基本交错。 然后, 与系统储存和最起码的架形架形架形结构的两点对应的基点 。 最起码的架式和最起码的架式的架形的架状带宽是, 最起码的架形的架式的架形的架式的架形的架式, 最底部,最底的架段级的架段级,最底,最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最,最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最最

0
下载
关闭预览

相关内容

Fariz Darari简明《博弈论Game Theory》介绍,35页ppt
专知会员服务
109+阅读 · 2020年5月15日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
338页新书《Deep Learning in Natural Language Processing》
机器学习算法与Python学习
9+阅读 · 2018年11月6日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
7+阅读 · 2020年10月9日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
11+阅读 · 2018年7月8日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
338页新书《Deep Learning in Natural Language Processing》
机器学习算法与Python学习
9+阅读 · 2018年11月6日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
论文浅尝 | Learning with Noise: Supervised Relation Extraction
开放知识图谱
3+阅读 · 2018年1月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员