Differential privacy (DP) is a widely-accepted and widely-applied notion of privacy based on worst-case analysis. Often, DP classifies most mechanisms without external noise as non-private [Dwork et al., 2014], and external noises, such as Gaussian noise or Laplacian noise [Dwork et al., 2006], are introduced to improve privacy. In many real-world applications, however, adding external noise is undesirable and sometimes prohibited. For example, presidential elections often require a deterministic rule to be used [Liu et al., 2020], and small noises can lead to dramatic decreases in the prediction accuracy of deep neural networks, especially the underrepresented classes [Bagdasaryan et al., 2019]. In this paper, we propose a natural extension and relaxation of DP following the worst average-case idea behind the celebrated smoothed analysis [Spielman and Teng, 2004]. Our notion, the smoothed DP, can effectively measure the privacy leakage of mechanisms without external noises under realistic settings. We prove several strong properties of the smoothed DP, including composability, robustness to post-processing and etc. We proved that any discrete mechanism with sampling procedures is more private than what DP predicts. In comparison, many continuous mechanisms with sampling procedures are still non-private under smoothed DP. Experimentally, we first verified that the discrete sampling mechanisms are private in real-world elections. Then, we apply the smoothed DP notion on quantized gradient descent, which indicates some neural networks can be private without adding any extra noises. We believe that these results contribute to the theoretical foundation of realistic privacy measures beyond worst-case analysis.


翻译:差异隐私(DP)是一种基于最坏情况分析的广泛接受和广泛应用的隐私概念(DP)基于最坏情况分析。 通常,DP将大多数没有外部噪音的机制归类为非私人[Dwork等人,2014年],外部噪音(Gaussian噪音或Laplacian噪音[Dwork等人,2006年]等)是为了改善隐私。 然而,在许多现实世界应用中,增加外部噪音是不可取的,有时是被禁止的。例如,总统选举往往要求使用一种确定性规则[Liu等人,2020年],而小型噪音可导致深度神经网络的预测准确性大幅下降,特别是代表性不足的阶级[Bagdasaryan等人,2014年]。在本文中,我们建议根据庆祝的平稳分析中最差的平均数来自然延长和放松DP[Spielman和Teng,2004年]。我们的概念,最糟糕的私人噪音可以有效地测量机制在现实环境下的隐私渗漏情况。我们证明,在平稳的DP的网络中有一些很强的特性, 包括不固定的精确的取样基础,在不断分析中,我们相信,在不精确的模型中可以证明, 任何不精确的数据处理程序中,在持续地分析中可以证明,在任何不精确的精确的诊断程序。

0
下载
关闭预览

相关内容

专知会员服务
20+阅读 · 2021年8月9日
专知会员服务
31+阅读 · 2021年7月15日
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
41+阅读 · 2021年4月2日
专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
27+阅读 · 2021年2月17日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【IJCAI2020】TransOMCS: 从语言图谱到常识图谱
专知会员服务
34+阅读 · 2020年5月4日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
已删除
将门创投
5+阅读 · 2019年5月5日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Arxiv
0+阅读 · 2021年9月3日
Arxiv
9+阅读 · 2021年4月8日
VIP会员
相关VIP内容
专知会员服务
20+阅读 · 2021年8月9日
专知会员服务
31+阅读 · 2021年7月15日
专知会员服务
14+阅读 · 2021年5月21日
专知会员服务
41+阅读 · 2021年4月2日
专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
27+阅读 · 2021年2月17日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
【IJCAI2020】TransOMCS: 从语言图谱到常识图谱
专知会员服务
34+阅读 · 2020年5月4日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
已删除
将门创投
5+阅读 · 2019年5月5日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Top
微信扫码咨询专知VIP会员