The concept of Federated Learning has emerged as a convergence of distributed machine learning, information, and communication technology. It is vital to the development of distributed machine learning, which is expected to be fully decentralized, robust, communication efficient, and secure. However, the federated learning settings with a central server can't meet requirements in fully decentralized networks. In this paper, we propose a fully decentralized, efficient, and privacy-preserving global model training protocol, named PPT, for federated learning in Peer-to-peer (P2P) Networks. PPT uses a one-hop communication form to aggregate local model update parameters and adopts the symmetric cryptosystem to ensure security. It is worth mentioning that PPT modifies the Eschenauer-Gligor (E-G) scheme to distribute keys for encryption. PPT also adopts Neighborhood Broadcast, Supervision and Report, and Termination as complementary mechanisms to enhance security and robustness. Through extensive analysis, we demonstrate that PPT resists various security threats and preserve user privacy. Ingenious experiments demonstrate the utility and efficiency as well.


翻译:联邦学习的概念已成为分布式机器学习、信息和通信技术的趋同,对于开发分布式机器学习至关重要,这种学习预计将完全分散、稳健、通信高效和安全;然而,中央服务器的联邦学习环境无法满足完全分散式网络的要求;在本文件中,我们提议建立一个完全分散、高效和隐私保护的全球示范培训协议,名为PPPT,用于在同侪网络(P2P)中进行联合学习;PPPT使用一手式通信表格,以汇总地方模型更新参数,采用对称密码系统确保安全;值得一提的是,PPT修改了Eschenauer-Gligor(E-G)系统,以分配加密钥匙;PPT还采用Nieghborhood广播、监督和报告,以及终止作为加强安全和稳健的补充机制;我们通过广泛分析,证明PPT抵制各种安全威胁,保护用户隐私;创造性实验也显示了效用和效率。

0
下载
关闭预览

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
【图与几何深度学习】Graph and geometric deep learning,49页ppt
面向健康的大数据与人工智能,103页ppt
专知会员服务
105+阅读 · 2020年12月29日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
少标签数据学习,54页ppt
专知会员服务
194+阅读 · 2020年5月22日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Coded Privacy-Preserving Computation at Edge Networks
Precision-Weighted Federated Learning
Arxiv
0+阅读 · 2021年7月20日
Relay-Assisted Cooperative Federated Learning
Arxiv
0+阅读 · 2021年7月20日
Arxiv
6+阅读 · 2021年4月30日
Arxiv
10+阅读 · 2021年3月30日
VIP会员
相关VIP内容
【图与几何深度学习】Graph and geometric deep learning,49页ppt
面向健康的大数据与人工智能,103页ppt
专知会员服务
105+阅读 · 2020年12月29日
商业数据分析,39页ppt
专知会员服务
157+阅读 · 2020年6月2日
少标签数据学习,54页ppt
专知会员服务
194+阅读 · 2020年5月22日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
25+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员