Coded computing has proved to be useful in distributed computing. We have observed that almost all coded computing systems studied so far consider a setup of one master and some workers. However, recently emerging technologies such as blockchain, internet of things, and federated learning introduce new requirements for coded computing systems. In these systems, data is generated in a distributed manner, so central encoding/decoding by a master is not feasible and scalable. This paper presents a fully distributed coded computing system that consists of $k\in\mathbb{N}$ data owners and $N\in\mathbb{N}$ workers, where data owners employ workers to do some computations on their data, as specified by a target function $f$ of degree $d\in\mathbb{N}$. As there is no central encoder, workers perform encoding themselves, prior to computation phase. The challenge in this system is the presence of adversarial data owners that do not know the data of honest data owners but cause discrepancies by sending different data to different workers, which is detrimental to local encodings in workers. There are at most $\beta\in\mathbb{N}$ adversarial data owners, and each sends at most $v\in\mathbb{N}$ different versions of data. Since the adversaries and their possibly colluded behavior are not known to workers and honest data owners, workers compute tags of their received data, in addition to their main computational task, and send them to data owners to help them in decoding. We introduce a tag function that allows data owners to partition workers into sets that previously had received the same data from all data owners. Then, we characterize the fundamental limit of the system, $t^*$, which is the minimum number of workers whose work can be used to correctly calculate the desired function of data of honest data owners. We show that $t^*=v^{\beta}d(K-1)+1$, and present converse and achievable proofs.


翻译:编码计算已经在分布式计算中证明其有用性。我们观察到迄今为止研究的几乎所有编码计算系统都考虑了一个主机和一些工作节点的设置。然而,最近出现的诸如区块链、物联网和联邦学习等新兴技术对编码计算系统提出了新的要求。在这些系统中,数据以分布式方式生成,因此由主节点进行的中央编码/解码不可行且不具备可扩展性。本文提出了一种完全分布式的编码计算系统,由$k\in\mathbb{N}$个数据所有者和$N\in\mathbb{N}$个工作节点组成,其中数据所有者雇用工作节点来进行一些计算,以执行目标函数$f$,其次数为$d\in\mathbb{N}$。由于没有中央编码器,工作节点在计算阶段之前自行进行编码。这个系统的挑战是存在对于恶性数据所有者,他们不知道诚实数据所有者的数据,但通过对不同工作节点发送不同的数据引起差异,这对工作节点的本地编码是有害的。最多有$\beta\in\mathbb{N}$个恶意数据所有者,每个只发送$v\in\mathbb{N}$个不同版本的数据。由于工作节点和诚实数据所有者不知道攻击者及其可能合谋的行为,工作节点计算其接收到的数据的标签,并将其发送给数据所有者以帮助他们进行解码。我们引入了一个标签函数,允许数据所有者将工作节点分成已从所有数据所有者接收到相同数据的集合。然后,我们刻画了系统的基本极限$t^*$,它是可以用于正确计算诚实数据所有者数据的期望函数的工作节点的最小数量。我们证明了$t^*=v^{\beta}d(K-1)+1$,并提出了反向和可实现的证明。

0
下载
关闭预览

相关内容

【干货书】分布式机器学习的优化算法,137页pdf
专知会员服务
74+阅读 · 2022年12月14日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
108+阅读 · 2020年5月3日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Code Smell 重构你的日常代码-圈复杂度高多层嵌套
阿里技术
1+阅读 · 2022年11月11日
区块链的用途并不多
InfoQ
0+阅读 · 2022年8月18日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
【论文】本体匹配实体对齐知识融合入门论文推荐
深度学习自然语言处理
25+阅读 · 2020年3月8日
如何用TF Serving部署TensorFlow模型
AI研习社
26+阅读 · 2019年3月27日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月25日
Arxiv
0+阅读 · 2023年5月25日
VIP会员
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员