Deep Neural Networks (DNNs) have become ubiquitous due to their performance on prediction and classification problems. However, they face a variety of threats as their usage spreads. Model extraction attacks, which steal DNNs, endanger intellectual property, data privacy, and security. Previous research has shown that system-level side-channels can be used to leak the architecture of a victim DNN, exacerbating these risks. We propose two DNN architecture extraction techniques catering to various threat models. The first technique uses a malicious, dynamically linked version of PyTorch to expose a victim DNN architecture through the PyTorch profiler. The second, called EZClone, exploits aggregate (rather than time-series) GPU profiles as a side-channel to predict DNN architecture, employing a simple approach and assuming little adversary capability as compared to previous work. We investigate the effectiveness of EZClone when minimizing the complexity of the attack, when applied to pruned models, and when applied across GPUs. We find that EZClone correctly predicts DNN architectures for the entire set of PyTorch vision architectures with 100% accuracy. No other work has shown this degree of architecture prediction accuracy with the same adversarial constraints or using aggregate side-channel information. Prior work has shown that, once a DNN has been successfully cloned, further attacks such as model evasion or model inversion can be accelerated significantly.


翻译:深度神经网络 (DNNs) 由于在预测和分类问题上的性能表现而变得无处不在。然而,它们面临着许多威胁,因为它们的使用越来越普遍。模型提取攻击可以窃取 DNNs,危及知识产权、数据隐私和安全。先前的研究表明,系统级侧信道可以用于通过泄漏受害者 DNN 的架构来加剧这些风险。我们提出了两种 DNN 架构提取技术,以适应各种威胁模型。第一种技术使用恶意的动态链接版本 PyTorch,通过 PyTorch 分析器揭示受害者 DNN 架构。第二种称为 EZClone,利用聚合(而不是时间序列)GPU 轮廓作为侧通道来预测 DNN 架构,采用简单的方法,假设对手的能力相对较低,与以前的工作相比。我们研究了 EZClone 在最小化攻击复杂性、应用于裁剪模型以及跨 GPU 应用时的有效性。我们发现,EZClone 准确地预测了 PyTorch 视觉架构的整个集合的 DNN 架构,准确率达到了 100%。没有其他工作在相同的敌对条件或使用聚合侧通道信息时显示出这种架构预测精度。先前的工作表明,一旦成功克隆了 DNN,进一步的攻击,如模型逃避或模型反演,可以显着加快。

0
下载
关闭预览

相关内容

专知会员服务
17+阅读 · 2021年8月6日
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
14+阅读 · 2021年1月31日
专知会员服务
41+阅读 · 2020年10月13日
【KDD2020-Tutorial】自动推荐系统,Automated Recommendation System
【SIGIR2020】学习词项区分性,Learning Term Discrimination
专知会员服务
16+阅读 · 2020年4月28日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
已删除
德先生
53+阅读 · 2019年4月28日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Feature Denoising for Improving Adversarial Robustness
Arxiv
15+阅读 · 2018年12月9日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员