我们提出了一种新的参数化方案来解决在大型神经网络上运用差分私有SGD所面临的挑战,这些挑战包括1) 存储单个梯度的巨大存储成本,2) 附加的噪声严重依赖于维数。具体地说,我们用两个小维的梯度载波矩阵和一个残差权矩阵来重新参数化每个权矩阵。我们认为,这样的重新参数化保持向前/向后过程不变,同时使我们能够在不计算梯度本身的情况下计算投影梯度。为了学习差分隐私,我们设计了重参数梯度扰动(RGP),它扰乱梯度载体矩阵上的梯度,并从有噪声的梯度中重建原始权重的更新。重要的是,我们使用历史更新来寻找梯度载波矩阵,其最优性在线性回归下得到严格证明,并通过深度学习任务得到经验验证。RGP显著降低了内存成本并改进了实用程序。例如,我们首次能够在BERT模型上应用差分隐私,并在e = 8的四个下游任务上实现了83.9%的平均精度,与非私有基准相比,损失在5%以内,但隐私泄漏风险要低得多。

https://www.zhuanzhi.ai/paper/3daeb1dc335f94ac104faf7abb027f98

成为VIP会员查看完整内容
10

相关内容

专知会员服务
37+阅读 · 2021年8月20日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
37+阅读 · 2021年7月27日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
14+阅读 · 2021年7月7日
专知会员服务
80+阅读 · 2021年5月10日
专知会员服务
23+阅读 · 2020年12月16日
[NeurIPS 2020] 球形嵌入的深度度量学习
专知会员服务
16+阅读 · 2020年11月8日
基于Siamese网络的多视角三维人脸重建
计算机视觉战队
5+阅读 · 2019年11月28日
ICML 2019 | 第四范式提出快速张量补全新方法
PaperWeekly
4+阅读 · 2019年6月19日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
面向BERT的TPUs和GPUs性能分析比较
论智
5+阅读 · 2018年10月18日
如何用张量分解加速深层神经网络?(附代码)
Arxiv
0+阅读 · 2021年8月20日
Arxiv
0+阅读 · 2021年8月19日
Arxiv
0+阅读 · 2021年8月19日
Arxiv
0+阅读 · 2021年8月17日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2021年8月20日
【ICML2021-Tutorial】机器学习隐私,90页ppt
专知会员服务
37+阅读 · 2021年7月27日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
36+阅读 · 2021年7月17日
专知会员服务
14+阅读 · 2021年7月7日
专知会员服务
80+阅读 · 2021年5月10日
专知会员服务
23+阅读 · 2020年12月16日
[NeurIPS 2020] 球形嵌入的深度度量学习
专知会员服务
16+阅读 · 2020年11月8日
相关论文
Arxiv
0+阅读 · 2021年8月20日
Arxiv
0+阅读 · 2021年8月19日
Arxiv
0+阅读 · 2021年8月19日
Arxiv
0+阅读 · 2021年8月17日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
微信扫码咨询专知VIP会员