Deep neural networks (DNNs) are increasingly being applied in malware detection and their robustness has been widely debated. Traditionally an adversarial example generation scheme relies on either detailed model information (gradient-based methods) or lots of samples to train a surrogate model, neither of which are available in most scenarios. We propose the notion of the instance-based attack. Our scheme is interpretable and can work in a black-box environment. Given a specific binary example and a malware classifier, we use the data augmentation strategies to produce enough data from which we can train a simple interpretable model. We explain the detection model by displaying the weight of different parts of the specific binary. By analyzing the explanations, we found that the data subsections play an important role in Windows PE malware detection. We proposed a new function preserving transformation algorithm that can be applied to data subsections. By employing the binary-diversification techniques that we proposed, we eliminated the influence of the most weighted part to generate adversarial examples. Our algorithm can fool the DNNs in certain cases with a success rate of nearly 100\%. Our method outperforms the state-of-the-art method . The most important aspect is that our method operates in black-box settings and the results can be validated with domain knowledge. Our analysis model can assist people in improving the robustness of malware detectors.


翻译:深心神经网络(DNNS)正越来越多地应用于恶意软件检测,其稳健性已被广泛辩论。传统上,对抗性范例生成计划依赖于详细的模型信息(基于梯度的方法)或许多样本来训练代孕模型,而多数情况下都没有这种模式。我们提出了以实例为基础的攻击的概念。我们的计划是可以解释的,可以在黑箱环境中工作。根据一个具体的二进制例子和一个恶意软件分类器,我们使用数据增强战略来生成足够的数据,以便从中训练一个简单的可解释模型。我们通过展示特定二进制不同部分的重量来解释检测模型。我们通过分析解释,发现数据分节在Windows PE 恶意软件检测中起着重要作用。我们提议了一种新的功能来保存转换算法,可以适用于数据分包。我们提出的二进制变法技术,我们消除了最加权部分的影响,可以生成对抗性示例。我们的数据计算方法可以在某些案例中以近100°的超标本模型来欺骗 DNS。我们的方法在黑箱中比对工具进行最关键的分析,我们最关键的实地的操作方法可以改进了我们的方法。 改进了我们的工具,改进了我们的方法可以改进了我们的工具, 改进了我们的方法可以改进了我们的工具, 改进了我们的方法的方法可以改进了我们的方法的方法, 改进了我们的方法可以改进了我们的方法的方法是改进了我们的方法, 改进了我们的方法的方法的方法, 改进了我们的方法是了我们的方法的方法的方法, 改进了我们的方法的方法的方法是了我们的方法的方法, 改进了我们的方法的方法的方法的方法的方法, 改进了我们的方法是了我们的方法, 改进了我们的方法的方法的方法的方法的方法的方法,我们的方法的方法,我们的方法是了我们的方法,我们的方法中的方法是了我们的方法,我们的方法是了我们的方法中的方法,我们的方法,我们的方法是了我们的方法中的方法,我们的方法中的方法,我们的方法是了我们的方法是了我们的方法,我们的方法, 改进了我们的方法中了我们的方法是了我们的方法中的方法中的方法,我们的方法是了我们的方法,我们的方法,我们的方法中的方法中的方法中的方法可以了我们的方法中的方法中的方法,我们的方法,我们的方法是了我们的方法可以了我们的方法可以改进了我们的方法可以改进了我们的方法中的方法中的方法,我们的方法,我们的方法可以改进了我们的方法是了我们的方法

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
44+阅读 · 2020年10月31日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Workshop
中国图象图形学学会CSIG
0+阅读 · 2021年12月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员