差分隐私(DP)是保护隐私的敏感数据,同时保持其实用性的一个最成功的提议。在这次演讲中,我们将简要介绍DP框架,然后提出一个新的机制来实现分布式DP。也就是说,在一个数据收集分布在不同组织中的场景中,这些组织不希望公开原始数据,而只希望公开它们经过脱敏的版本,并且仍然可以从合并来自不同来源的信息的优点中获益。我们提出的机制特别适合于统计期望最大化方法的一种变体的应用,由于这种方法,原始数据的效用可以被检索到一个近似的检索度,而不影响原始数据所有者的隐私。
https://sites.google.com/view/federatedlearning-workshop/schedule