The Internet of Things (IoT) faces tremendous security challenges. Machine learning models can be used to tackle the growing number of cyber-attack variations targeting IoT systems, but the increasing threat posed by adversarial attacks restates the need for reliable defense strategies. This work describes the types of constraints required for a realistic adversarial cyber-attack example and proposes a methodology for a trustworthy adversarial robustness analysis with a realistic adversarial evasion attack vector. The proposed methodology was used to evaluate three supervised algorithms, Random Forest (RF), Extreme Gradient Boosting (XGB), and Light Gradient Boosting Machine (LGBM), and one unsupervised algorithm, Isolation Forest (IFOR). Constrained adversarial examples were generated with the Adaptative Perturbation Pattern Method (A2PM), and evasion attacks were performed against models created with regular and adversarial training. Even though RF was the least affected in binary classification, XGB consistently achieved the highest accuracy in multi-class classification. The obtained results evidence the inherent susceptibility of tree-based algorithms and ensembles to adversarial evasion attacks and demonstrates the benefits of adversarial training and a security by design approach for a more robust IoT network intrusion detection and cyber-attack classification.


翻译:互联网(IoT)面临巨大的安全挑战。机器学习模式可以用来应对针对IoT系统的网络攻击变变变数量日益增多的现象,但对抗性攻击所构成的日益严重的威胁再次表明需要可靠的防御战略。这项工作描述了现实的对抗性网络攻击范例所需的制约类型,并介绍了现实的对抗性网络攻击实例所需的制约类型,并提议了一种方法,以现实的对抗性对抗性规避攻击矢量来进行可靠的对抗性敌强力分析,并附有现实的对抗性对抗性规避攻击矢量(IoT)面临巨大的安全挑战。拟议方法用于评价三种受监督的算、随机森林(Rand Forest )、极快速推推推(XGB)和轻度增压推推推推工具(LGBBM)以及一个不受监督的算法、隔离森林(IFOR ) 。通过适应性调调调调调调调调调调调调调调调调调调调的模型(A2PPPM ) 进行逃攻击。即使RF在二分类中受影响最小,XGB始终在多级分类中达到最高准确性。获得的结果证明树基算法和增防反反调调调调调调调制攻击和反反调调调调调调调调调调调调调调调制的网络的网络的网络的计算法培训和安全设计,并设计了对防的网络的网络的网络的升级和安用的网络的网络的升级法、研发税培训和安全设计,并设计的网络的系统设计了一种安全设计了网络的网络的分类法、防、防的系统的系统、防和制的分类法、防制的升级的系统、防制的系统、研发性、防税的系统、防的系统的系统的系统的系统的系统的系统、防的系统、研发税的系统的系统的系统的系统、防、防的系统、防的系统、防、防的系统、防的系统的系统的系统的系统、防的系统、研发税的系统、防的系统的系统的系统的系统的系统的系统的系统的系统的系统的系统的系统的系统、和安全设计的系统的系统的系统的系统的系统的系统、以及安全设计的系统、防的系统、防的系统的系统、防的防</s>

0
下载
关闭预览

相关内容

不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
71+阅读 · 2022年6月28日
【2022新书】高效深度学习,Efficient Deep Learning Book
专知会员服务
115+阅读 · 2022年4月21日
专知会员服务
44+阅读 · 2020年10月31日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
74+阅读 · 2022年7月16日
Generative Adversarial Networks: A Survey and Taxonomy
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员