Transfer learning has been widely studied and gained increasing popularity to improve the accuracy of machine learning models by transferring some knowledge acquired in different training. However, no prior work has pointed out that transfer learning can strengthen privacy attacks on machine learning models. In this paper, we propose TransMIA (Transfer Learning-based Membership Inference Attacks), which use transfer learning to perform membership inference attacks on the source model when the adversary is able to access the parameters of the transferred model. In particular, we propose a transfer shadow training technique, where an adversary employs the parameters of the transferred model to construct shadow models, to significantly improve the performance of membership inference when a limited amount of shadow training data is available to the adversary. We evaluate our attacks using two real datasets, and show that our attacks outperform the state-of-the-art that does not use our transfer shadow training technique. We also compare four combinations of the learning-based/entropy-based approach and the fine-tuning/freezing approach, all of which employ our transfer shadow training technique. Then we examine the performance of these four approaches based on the distributions of confidence values, and discuss possible countermeasures against our attacks.


翻译:已广泛研究转让学习,并越来越受欢迎,通过转让在不同培训中获得的一些知识来提高机器学习模式的准确性,然而,以前没有一项工作指出,转让学习能够加强对机器学习模式的隐私攻击;在本论文中,我们提议使用转让学习(基于学习的会员身份推断攻击)来利用转让学习(基于转移模式的参数)来对源模式进行成员推断攻击;特别是,我们提议采用转让影子培训技术,让对手利用转让模式的参数来建立影子模型,以大大改进成员推断工作,如果敌人掌握有限的影子培训数据,则可以大大改进成员身份推断工作;我们利用两个真实的数据集来评估我们的攻击,并表明我们的攻击超出了不使用转让影子培训技术的状态;我们还比较了基于学习(基于渗透)的方法和微调/冻结方法的四种组合,所有这些组合都使用了我们的转移影子培训技术;然后,我们根据信任值的分配情况,审视这四种方法的绩效,并讨论针对我们的攻击可能采取的反措施。

0
下载
关闭预览

相关内容

【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【google】监督对比学习,Supervised Contrastive Learning
专知会员服务
30+阅读 · 2020年4月23日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
已删除
将门创投
9+阅读 · 2017年10月17日
Arxiv
0+阅读 · 2021年1月17日
Arxiv
12+阅读 · 2020年12月10日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
Top
微信扫码咨询专知VIP会员