The training and creation of deep learning model is usually costly, thus it can be regarded as an intellectual property (IP) of the model creator. However, malicious users who obtain high-performance models may illegally copy, redistribute, abuse the models, or use the models to provide prediction services without permission. To deal with such security threats, a few deep neural networks (DNN) IP protection methods have been proposed in recent years. This paper attempts to provide a review of the existing DNN IP protection works and also an outlook. First, we propose the first taxonomy for DNN IP protection methods in terms of five attributes: scenario, capacity, type, mechanism, and attack resistance. Second, we present a survey on existing DNN IP protection works in terms of the above five attributes, especially focusing on the challenges these methods face, whether these methods can provide proactive protection, and their resistances to different levels of attacks. Third, we analyze the potential attacks on DNN IP protection methods. Fourth, we propose a systematic evaluation method for DNN IP protection methods. Lastly, challenges and future works are presented.


翻译:培训和创建深层次学习模式通常费用高昂,因此可以被视为模型创建者的知识产权(IP),但获得高性能模型的恶意使用者可能非法复制、重新分配、滥用模型,或利用模型提供预测服务,为了应对这种安全威胁,近年来提出了几条深层神经网络(DNN)IP保护方法。本文件试图对现有DNNIP保护工作进行审查,并展望。首先,我们提议从五个属性(情景、能力、类型、机制和攻击抵抗)的角度对DNNIP保护方法进行首次分类:情景、能力、类型、机制和攻击抵抗。第二,我们从上述五个属性的角度对现有的DNNNIP保护工作进行调查,特别侧重于这些方法所面临的挑战,这些方法能否提供预防性保护,以及这些方法对不同程度攻击的抵抗力。第三,我们分析了对DNNNIP保护方法的潜在攻击。第四,我们提议了对DNNIP保护方法的系统评估方法。最后,提出了挑战和未来的工作。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2020年9月6日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
98+阅读 · 2019年10月9日
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
DiscuzX 3.4 Phar反序列化漏洞
黑客工具箱
8+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
人工智能 | AAAI 2019等国际会议信息7条
Call4Papers
5+阅读 · 2018年9月3日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年1月14日
Generative Adversarial Networks: A Survey and Taxonomy
VIP会员
相关资讯
计算机 | IUI 2020等国际会议信息4条
Call4Papers
6+阅读 · 2019年6月17日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
DiscuzX 3.4 Phar反序列化漏洞
黑客工具箱
8+阅读 · 2019年1月4日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
人工智能 | AAAI 2019等国际会议信息7条
Call4Papers
5+阅读 · 2018年9月3日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员