机器学习模型容易受到成员推断攻击,目的是推断目标样本是否属于目标模型的训练数据集。由于成员推理而引起的严重的隐私问题引发了对成员推理攻击的多种防御,例如差分隐私和对抗性正则化。不幸的是,这些防御方法产生的机器学习模型的实用性低得令人无法接受,例如,分类准确性。我们提出了一种新的基于知识蒸馏的防御,称为成员隐私蒸馏(DMP),以对抗成员推理攻击,这种攻击比先前的防御更有效地保留了生成模型的效用。我们提供了一个新的准则来调整DMP中用于知识迁移的数据,以调整所得模型的效用和隐私之间的权衡。我们的评估清楚地展示了最先进的会员隐私-效用折衷。

https://people.cs.umass.edu/~vshejwalkar/dmp_aaai_slides.pdf

成为VIP会员查看完整内容
26

相关内容

专知会员服务
44+阅读 · 2020年12月26日
专知会员服务
28+阅读 · 2020年12月14日
专知会员服务
37+阅读 · 2020年12月1日
专知会员服务
111+阅读 · 2020年11月16日
机器学习模型安全与隐私研究综述
专知会员服务
108+阅读 · 2020年11月12日
少标签数据学习,61页ppt,宾夕法尼亚大学
专知会员服务
36+阅读 · 2020年8月27日
专知会员服务
123+阅读 · 2020年8月7日
少标签数据学习,54页ppt
专知会员服务
194+阅读 · 2020年5月22日
【中国人民大学】机器学习的隐私保护研究综述
专知会员服务
130+阅读 · 2020年3月25日
联邦学习安全与隐私保护研究综述
专知
12+阅读 · 2020年8月7日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
34+阅读 · 2020年6月3日
隐私保护相关汇总
计算机与网络安全
5+阅读 · 2019年5月16日
杨强教授:AI算法重点转向关注数据安全隐私
极市平台
11+阅读 · 2019年2月17日
差分隐私保护:从入门到脱坑
FreeBuf
17+阅读 · 2018年9月10日
Arxiv
0+阅读 · 2021年4月2日
Arxiv
0+阅读 · 2021年4月2日
Arxiv
0+阅读 · 2021年4月1日
Federated Learning: A Signal Processing Perspective
Arxiv
2+阅读 · 2021年3月31日
Arxiv
18+阅读 · 2019年1月16日
VIP会员
相关VIP内容
专知会员服务
44+阅读 · 2020年12月26日
专知会员服务
28+阅读 · 2020年12月14日
专知会员服务
37+阅读 · 2020年12月1日
专知会员服务
111+阅读 · 2020年11月16日
机器学习模型安全与隐私研究综述
专知会员服务
108+阅读 · 2020年11月12日
少标签数据学习,61页ppt,宾夕法尼亚大学
专知会员服务
36+阅读 · 2020年8月27日
专知会员服务
123+阅读 · 2020年8月7日
少标签数据学习,54页ppt
专知会员服务
194+阅读 · 2020年5月22日
【中国人民大学】机器学习的隐私保护研究综述
专知会员服务
130+阅读 · 2020年3月25日
微信扫码咨询专知VIP会员