Local Differential Privacy (LDP) protocols enable an untrusted server to perform privacy-preserving, federated data analytics. Various LDP protocols have been developed for different types of data such as categorical data, numerical data, and key-value data. Due to their distributed settings, LDP protocols are fundamentally vulnerable to poisoning attacks, in which fake users manipulate the server's analytics results via sending carefully crafted data to the server. However, existing poisoning attacks focused on LDP protocols for simple data types such as categorical and numerical data, leaving the security of LDP protocols for more advanced data types such as key-value data unexplored. In this work, we aim to bridge the gap by introducing novel poisoning attacks to LDP protocols for key-value data. In such a LDP protocol, a server aims to simultaneously estimate the frequency and mean value of each key among some users, each of whom possesses a set of key-value pairs. Our poisoning attacks aim to simultaneously maximize the frequencies and mean values of some attacker-chosen target keys via sending carefully crafted data from some fake users to the sever. Specifically, since our attacks have two objectives, we formulate them as a two-objective optimization problem. Moreover, we propose a method to approximately solve the two-objective optimization problem, from which we obtain the optimal crafted data the fake users should send to the server. We demonstrate the effectiveness of our attacks to three LDP protocols for key-value data both theoretically and empirically. We also explore two defenses against our attacks, which are effective in some scenarios but have limited effectiveness in other scenarios. Our results highlight the needs for new defenses against our poisoning attacks.


翻译:本地差异隐私协议( LDP) 使一个不受信任的服务器能够进行隐私保护, 包括数据分析。 各种 LDP 协议已经为各种类型的数据( 如绝对数据、 数字数据和关键值数据) 开发了不同的 LDP 协议。 由于其分布式的设置, LDP 协议从根本上容易发生中毒袭击, 包括假用户通过向服务器发送精心制作的数据来操纵服务器的解析结果。 但是, 现有的中毒袭击侧重于LDP 协议, 以简单数据类型( 如绝对数据和数字数据) 进行隐私保护, 将LDP 协议的安全留给一些更先进的数据类型( 如关键值数据没有被解析 ) 。 在这项工作中, 我们的目标是通过向 LDP 协议中的新毒袭击程序( ) 来弥补缺口。 我们的双重数据协议( ) 和双重数据规则( ) ( ) ( ) ) 也是为了在最精确的操作式的服务器上显示我们两个目标( ) ) 。 我们用最精确的方法( ) 将两个目标( ) 以最精确的方法( ) ) 来显示我们两个目标( ) 最精确地( ) ) 的系统( ) 将两个目标( ) 将两个目标( ) ) 定义( ) 定义( ) ( ) ) ( 我们) ) ) ) 定义( ) ( ) ) ( ) ) ) 定义(我们两个目标( ) ( ) ) ) ( ) 定义( ) ) ( ) ( ) ( ) ( ) ) ) ) ) (我们用最精确地(我们用最精确地( ) ( ) ) ) ) ) ) ) ) ) ) ( ) ( ) ( ) ) ( ) ( ) ) ( ) ) (我们用两种 ) (我们两个 (我们两个 (我们用两种 ) ) ) ) ( ) ( ) ) ) ( ) ) ) ) (我们用最精确( ) (我们用最精确( ) ) 的(最精确(最精确(最精确(最精确

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
计算机 | ICDE 2020等国际会议信息8条
Call4Papers
3+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Plume: Differential Privacy at Scale
Arxiv
0+阅读 · 2022年1月27日
Arxiv
0+阅读 · 2022年1月25日
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
计算机 | ICDE 2020等国际会议信息8条
Call4Papers
3+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员