User-facing software services are becoming increasingly reliant on remote servers to host Deep Neural Network (DNN) models, which perform inference tasks for the clients. Such services require the client to send input data to the service provider, who processes it using a DNN and returns the output predictions to the client. Due to the rich nature of the inputs such as images and speech, the input often contains more information than what is necessary to perform the primary inference task. Consequently, in addition to the primary inference task, a malicious service provider could infer secondary (sensitive) attributes from the input, compromising the client's privacy. The goal of our work is to improve inference privacy by injecting noise to the input to hide the irrelevant features that are not conducive to the primary classification task. To this end, we propose Adaptive Noise Injection (ANI), which uses a light-weight DNN on the client-side to inject noise to each input, before transmitting it to the service provider to perform inference. Our key insight is that by customizing the noise to each input, we can achieve state-of-the-art trade-off between utility and privacy (up to 48.5% degradation in sensitive-task accuracy with <1% degradation in primary accuracy), significantly outperforming existing noise injection schemes. Our method does not require prior knowledge of the sensitive attributes and incurs minimal computational overheads.


翻译:用户化软件服务越来越依赖远程服务器来托管深神经网络(DNN)模型,这些模型为客户提供推断任务。这类服务要求客户将输入数据发送给服务提供方,由服务提供方使用 DNN进行处理,并将输出预测反馈给客户。由于图像和语音等投入的丰富性质,输入中的信息往往多于执行主要推断任务所需的信息。因此,除了主要的敏感推断任务外,恶意服务提供方还可以从输入中推断次级(敏感)属性,从而损害客户的隐私。我们工作的目标是通过输入噪音来改进推断隐私,以隐藏不利于初级分类任务的无关特性。为此,我们提议采用适应性噪音注射(ANI),在客户方使用轻量度的DNNN,然后将其传递给服务提供方进行推断。我们的关键洞察力是,通过对每项输入的噪音进行定制,从而损害客户的隐私,我们无法在初级保密度5 和初级保密度的递减方法中,我们无法实现现有保密性交易的精确度。

0
下载
关闭预览

相关内容

【干货书】计算机科学,647页pdf,Computer Science
专知会员服务
46+阅读 · 2021年5月10日
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
50+阅读 · 2021年1月20日
【干货书】高级应用深度学习,294页pdf
专知会员服务
154+阅读 · 2020年6月20日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
109+阅读 · 2020年6月10日
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
108+阅读 · 2020年5月3日
强化学习最新教程,17页pdf
专知会员服务
177+阅读 · 2019年10月11日
已删除
将门创投
4+阅读 · 2019年9月10日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年5月29日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年9月10日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Top
微信扫码咨询专知VIP会员