Training pipelines for machine learning (ML) based malware classification often rely on crowdsourced threat feeds, exposing a natural attack injection point. In this paper, we study the susceptibility of feature-based ML malware classifiers to backdoor poisoning attacks, specifically focusing on challenging "clean label" attacks where attackers do not control the sample labeling process. We propose the use of techniques from explainable machine learning to guide the selection of relevant features and values to create effective backdoor triggers in a model-agnostic fashion. Using multiple reference datasets for malware classification, including Windows PE files, PDFs, and Android applications, we demonstrate effective attacks against a diverse set of machine learning models and evaluate the effect of various constraints imposed on the attacker. To demonstrate the feasibility of our backdoor attacks in practice, we create a watermarking utility for Windows PE files that preserves the binary's functionality, and we leverage similar behavior-preserving alteration methodologies for Android and PDF files. Finally, we experiment with potential defensive strategies and show the difficulties of completely defending against these attacks, especially when the attacks blend in with the legitimate sample distribution.


翻译:机器学习(ML)的恶意软件分类培训管道往往依赖多方源威胁反馈,暴露了自然攻击注射点。在本文中,我们研究了基于特性的 ML 恶意软件分类器对后门中毒袭击的易感性,特别侧重于挑战“清洁标签”攻击,攻击者不控制标注过程。我们建议使用来自可解释的机器学习的技术来指导相关特征和价值观的选择,以模型-不可知的方式创造有效的后门触发器。我们利用多种参考数据集来进行恶意软件分类,包括Windows PE文档、PDFs和Android应用程序,我们展示了对各种机器学习模型的有效攻击,并评估了对攻击者施加的各种限制的影响。为了展示我们幕后攻击的实际可行性,我们为Windows PE文档创建了一个水标记工具,以维护二进制功能,我们用类似的行为保护改变方法来保护Android和PDF文件。最后,我们试验了潜在的防御策略,并展示了完全防御这些攻击的困难,特别是在攻击与合法样品分布混合时。

0
下载
关闭预览

相关内容

机器学习(Machine Learning)是一个研究计算学习方法的国际论坛。该杂志发表文章,报告广泛的学习方法应用于各种学习问题的实质性结果。该杂志的特色论文描述研究的问题和方法,应用研究和研究方法的问题。有关学习问题或方法的论文通过实证研究、理论分析或与心理现象的比较提供了坚实的支持。应用论文展示了如何应用学习方法来解决重要的应用问题。研究方法论文改进了机器学习的研究方法。所有的论文都以其他研究人员可以验证或复制的方式描述了支持证据。论文还详细说明了学习的组成部分,并讨论了关于知识表示和性能任务的假设。 官网地址:http://dblp.uni-trier.de/db/journals/ml/
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
95+阅读 · 2020年12月8日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
【综述】迁移自适应学习十年进展
专知
41+阅读 · 2019年11月26日
TheFatRat 一款简易后门工具
黑白之道
35+阅读 · 2019年10月23日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年4月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年3月4日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
VIP会员
相关VIP内容
【ICLR2021】神经元注意力蒸馏消除DNN中的后门触发器
专知会员服务
13+阅读 · 2021年1月31日
专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
95+阅读 · 2020年12月8日
鲁棒模式识别研究进展
专知会员服务
40+阅读 · 2020年8月9日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
相关资讯
【综述】迁移自适应学习十年进展
专知
41+阅读 · 2019年11月26日
TheFatRat 一款简易后门工具
黑白之道
35+阅读 · 2019年10月23日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
7+阅读 · 2018年4月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员