Federated learning is a distributed learning paradigm which seeks to preserve the privacy of each participating node's data. However, federated learning is vulnerable to attacks, specifically to our interest, model integrity attacks. In this paper, we propose a novel method for malicious node detection called MANDERA. By transferring the original message matrix into a ranking matrix whose column shows the relative rankings of all local nodes along different parameter dimensions, our approach seeks to distinguish the malicious nodes from the benign ones with high efficiency based on key characteristics of the rank domain. We have proved, under mild conditions, that MANDERA is guaranteed to detect all malicious nodes under typical Byzantine attacks with no prior knowledge or history about the participating nodes. The effectiveness of the proposed approach is further confirmed by experiments on two classic datasets, CIFAR-10 and MNIST. Compared to the state-of-art methods in the literature for defending Byzantine attacks, MANDERA is unique in its way to identify the malicious nodes by ranking and its robustness to effectively defense a wide range of attacks.


翻译:联邦学习是一种分布式学习模式,旨在保护每个参与节点数据的隐私,然而,联合学习很容易受到攻击,特别是我们感兴趣的攻击,其完整性攻击模式。在本文中,我们提出一种名为MANDERA的恶性节点探测新颖方法。通过将原始电文矩阵转换成一个排名矩阵,该矩阵的栏目显示所有本地节点在不同参数层面的相对排名,我们的方法根据排名域的关键特征,将恶意节点与高效率的良节点区分开来。我们已经证明,在温和的条件下,MANDERA保证在典型的拜占庭攻击中发现所有恶意节点,而事先对参与节点没有了解或历史。提议的这一方法的有效性进一步得到两个经典数据集(CIFAR-10和MNIST)实验的证实。与文献中捍卫拜占庭攻击的最先进方法相比,MNDERA在查明恶意节点的方式上具有独特性,通过排级和稳健性来有效防御范围广泛的攻击。

0
下载
关闭预览

相关内容

专知会员服务
55+阅读 · 2021年5月17日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
专知会员服务
44+阅读 · 2020年10月31日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
已删除
将门创投
4+阅读 · 2020年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
Arxiv
0+阅读 · 2021年12月20日
VIP会员
相关VIP内容
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
已删除
将门创投
4+阅读 · 2020年1月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
计算机 | CCF推荐会议信息10条
Call4Papers
5+阅读 · 2018年10月18日
Top
微信扫码咨询专知VIP会员