Knowledge distillation (KD) has recently emerged as a powerful strategy to transfer knowledge from a pre-trained teacher model to a lightweight student, and has demonstrated its unprecedented success over a wide spectrum of applications. In spite of the encouraging results, the KD process per se poses a potential threat to network ownership protection, since the knowledge contained in network can be effortlessly distilled and hence exposed to a malicious user. In this paper, we propose a novel framework, termed as Safe Distillation Box (SDB), that allows us to wrap a pre-trained model in a virtual box for intellectual property protection. Specifically, SDB preserves the inference capability of the wrapped model to all users, but precludes KD from unauthorized users. For authorized users, on the other hand, SDB carries out a knowledge augmentation scheme to strengthen the KD performances and the results of the student model. In other words, all users may employ a model in SDB for inference, but only authorized users get access to KD from the model. The proposed SDB imposes no constraints over the model architecture, and may readily serve as a plug-and-play solution to protect the ownership of a pre-trained network. Experiments across various datasets and architectures demonstrate that, with SDB, the performance of an unauthorized KD drops significantly while that of an authorized gets enhanced, demonstrating the effectiveness of SDB.


翻译:知识蒸馏(KD)最近成为了将知识从受过培训的教师模式转让给轻量级学生的有力战略,并展示了它在广泛应用方面的前所未有的成功。尽管取得了令人鼓舞的成果,KD过程本身对网络所有权保护构成了潜在威胁,因为网络中所包含的知识可以不费力地蒸馏,从而暴露给恶意用户。在本文件中,我们提出了一个被称为安全蒸馏箱的新颖框架,使我们能够在知识产权保护虚拟箱中包扎一个经过培训的模型。具体地说,SDB将包装模型的推断能力保存给所有用户,但不让未经授权的用户使用KD。另一方面,对于获得授权的用户来说,SDB实施知识增强计划,以加强KD的绩效和学生模式的结果。换句话说,所有用户都可以在SDB中采用一个模型来推断,但只有获得授权的用户才能从模型中获得KDB的接入。拟议的SDB对模型结构没有设置任何限制,并且可以随时作为包装模型的推断能力,但KDDD可以作为封闭式的推介和演示S级系统增强的系统所有权的升级模型。

0
下载
关闭预览

相关内容

【AAAI2022】锚框排序知识蒸馏的目标检测
专知会员服务
26+阅读 · 2022年2月10日
专知会员服务
21+阅读 · 2021年8月17日
专知会员服务
18+阅读 · 2021年4月24日
【CVPR2021】多实例主动学习目标检测
专知会员服务
43+阅读 · 2021年4月18日
图卷积神经网络蒸馏知识,Distillating Knowledge from GCN
专知会员服务
95+阅读 · 2020年3月25日
专知会员服务
61+阅读 · 2020年3月19日
CVPR 2019 | 小样本域适应的目标检测
PaperWeekly
5+阅读 · 2019年10月1日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
9+阅读 · 2021年6月16日
Arxiv
9+阅读 · 2021年3月3日
已删除
Arxiv
32+阅读 · 2020年3月23日
VIP会员
相关资讯
CVPR 2019 | 小样本域适应的目标检测
PaperWeekly
5+阅读 · 2019年10月1日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
【学习】(Python)SVM数据分类
机器学习研究会
6+阅读 · 2017年10月15日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员