差分隐私(DP)是保护隐私的敏感数据,同时保持其实用性的一个最成功的提议。在这次演讲中,我们将简要介绍DP框架,然后提出一个新的机制来实现分布式DP。也就是说,在一个数据收集分布在不同组织中的场景中,这些组织不希望公开原始数据,而只希望公开它们经过脱敏的版本,并且仍然可以从合并来自不同来源的信息的优点中获益。我们提出的机制特别适合于统计期望最大化方法的一种变体的应用,由于这种方法,原始数据的效用可以被检索到一个近似的检索度,而不影响原始数据所有者的隐私。

https://sites.google.com/view/federatedlearning-workshop/schedule

成为VIP会员查看完整内容
37

相关内容

专知会员服务
44+阅读 · 2020年12月26日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
25+阅读 · 2020年10月13日
【普林斯顿】持续视角下的机器学习,31页ppt及视频
专知会员服务
23+阅读 · 2020年8月19日
知识图谱融合方法,140页ppt,南京大学胡伟老师
专知会员服务
137+阅读 · 2020年2月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
联邦学习最新研究趋势!
AI科技评论
52+阅读 · 2020年3月12日
打破数据孤岛:联邦学习近期重要研究进展
机器之心
9+阅读 · 2019年9月30日
DevOps 国际峰会 2019 · 北京站完整实录(附PPT)
DevOps时代
50+阅读 · 2019年7月8日
差分隐私保护:从入门到脱坑
FreeBuf
17+阅读 · 2018年9月10日
2017年DevOps最新现状研究报告解读
CSDN云计算
5+阅读 · 2017年6月13日
Arxiv
0+阅读 · 2021年1月14日
Optimization for deep learning: theory and algorithms
Arxiv
102+阅读 · 2019年12月19日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关主题
相关VIP内容
专知会员服务
44+阅读 · 2020年12月26日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
最新《深度卷积神经网络理论》报告,35页ppt
专知会员服务
45+阅读 · 2020年11月30日
【NeurIPS 2020】大规模分布式鲁棒优化方法
专知会员服务
25+阅读 · 2020年10月13日
【普林斯顿】持续视角下的机器学习,31页ppt及视频
专知会员服务
23+阅读 · 2020年8月19日
知识图谱融合方法,140页ppt,南京大学胡伟老师
专知会员服务
137+阅读 · 2020年2月19日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
相关资讯
微信扫码咨询专知VIP会员