Privacy-preserving federated learning allows multiple users to jointly train a model with coordination of a central server. The server only learns the final aggregation result, thereby preventing leakage of the users' (private) training data from the individual model updates. However, keeping the individual updates private allows malicious users to perform Byzantine attacks and degrade the model accuracy without being detected. Best existing defenses against Byzantine workers rely on robust rank-based statistics, e.g., the median, to find malicious updates. However, implementing privacy-preserving rank-based statistics is nontrivial and unscalable in the secure domain, as it requires sorting of all individual updates. We establish the first private robustness check that uses high break point rank-based statistics on aggregated model updates. By exploiting randomized clustering, we significantly improve the scalability of our defense without compromising privacy. We leverage the derived statistical bounds in zero-knowledge proofs to detect and remove malicious updates without revealing the private user updates. Our novel framework, zPROBE, enables Byzantine resilient and secure federated learning. Empirical evaluations demonstrate that zPROBE provides a low overhead solution to defend against state-of-the-art Byzantine attacks while preserving privacy.
翻译:保护隐私联盟学习让多个用户能够通过中央服务器的协调联合培训模型。 服务器只能学习最终汇总结果, 从而防止用户( 私人) 培训数据从单个模型更新中泄漏。 但是, 保持个人更新允许恶意用户进行拜占庭袭击, 并在不被发现的情况下降低模型的准确性。 针对拜占庭工人的最佳现有防御手段依靠可靠的等级统计, 如中位数, 找到恶意更新信息。 然而, 实施隐私保护等级统计在安全域是不可利用和无法扩展的, 因为它需要对所有个人更新进行分类 。 我们建立首个私人稳健性检查, 在汇总模型更新中使用高断点按级统计。 通过随机集束, 我们大大改进了我们防御的伸缩性, 同时又不损害隐私。 我们利用零知识证据中衍生的统计界限来检测和消除恶意更新信息, 而不泄露私人用户更新信息。 我们的新框架, zPROBE, 使得拜占庭的适应性和安全化学习能力, 因为它需要排序个人更新 。 我们建立了首个私隐性评估, 而 Empricalalalal adal adview resmal des des des des lavestistemus des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des des despeptisteppreptistepeptisteppreptistemal des des des des des des des des des des des des des des des des des des des desp