Privacy preserving data analysis (PPDA) has received increasing attention due to a great variety of applications. Local differential privacy (LDP), as an emerging standard that is suitable for PPDA, has been widely deployed into various real-world scenarios to analyze massive data while protecting against many forms of privacy breach. In this study, we are mainly concerned with piecewise transformation technique (PTT) for analyzing numerical data under local differential privacy. We provide a principled framework for PTT in the context of LDP, based on which PTT is studied systematically. As a result, we show that (1) many members in PTTs are asymptotically optimal when used to obtain an unbiased estimator for mean of numerical data, and (2) for a given privacy budget, there is PTT that reaches the theoretical low bound with respect to variance. Next, we prove by studying two classes of PTTs in detail that (1) there do not exist optimal PTTs compared to the well-used technique, i.e., Duchi's scheme, in terms of the consistency noisy variance, (2) on the other hand, one has the ability to find a great number of PTTs that are consistently more optimal than the latter with regard to the worst-case noisy variance, which is never reported so far. When we are restricted to consider only the high privacy level, enough PTTs turn out to be optimal than the well-known Laplace mechanism. Lastly, we prove that for a family of PTTs, the correspondingly theoretical low bound of noisy variance follows $O(\epsilon^{-2})$ when considering the high privacy level.


翻译:由于应用种类繁多,保护隐私的数据分析(PPDA)受到越来越多的关注。当地差异隐私(LDP)作为适合PPDA的新兴标准,被广泛应用于各种真实世界情景中,以分析大规模数据,同时防止多种侵犯隐私的形式。在本研究中,我们主要关注在本地差异隐私下分析数字数据的零碎转换技术(PTT),我们为PTT提供了一种原则性框架,这是对PTT进行系统研究的基础。结果,我们表明:(1) PTT的许多成员在使用不均匀的隐私差异时,在使用不均匀定的数据平均值时,是过于最佳的;(2) 对于特定隐私预算,PTTT在理论上达到了低劣的界限。我们通过详细研究两种PTTTT技术(PTTT)的分类(PTTT):(1) 与使用良好的技术相比,即Duchii(Dichi)的计算方法相比,我们没有最佳的PTTF方案。(2) 在使用不均匀的调差异方面,一个人能够发现PTTTF的低廉度比我们一直认为最接近最接近于最优的上限。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
【实用书】数据科学基础,484页pdf,Foundations of Data Science
专知会员服务
117+阅读 · 2020年5月28日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
已删除
将门创投
9+阅读 · 2017年7月28日
Loss-guided Stability Selection
Arxiv
0+阅读 · 2022年2月10日
Arxiv
0+阅读 · 2022年2月8日
Arxiv
3+阅读 · 2017年12月1日
VIP会员
相关资讯
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
已删除
将门创投
9+阅读 · 2017年7月28日
Top
微信扫码咨询专知VIP会员