Machine Learning (ML)-based network intrusion detection systems bring many benefits for enhancing the cybersecurity posture of an organisation. Many systems have been designed and developed in the research community, often achieving a close to perfect detection rate when evaluated using synthetic datasets. However, the high number of academic research has not often translated into practical deployments. There are several causes contributing towards the wide gap between research and production, such as the limited ability of comprehensive evaluation of ML models and lack of understanding of internal ML operations. This paper tightens the gap by evaluating the generalisability of a common feature set to different network environments and attack scenarios. Therefore, two feature sets (NetFlow and CICFlowMeter) have been evaluated in terms of detection accuracy across three key datasets, i.e., CSE-CIC-IDS2018, BoT-IoT, and ToN-IoT. The results show the superiority of the NetFlow feature set in enhancing the ML models detection accuracy of various network attacks. In addition, due to the complexity of the learning models, SHapley Additive exPlanations (SHAP), an explainable AI methodology, has been adopted to explain and interpret the classification decisions of ML models. The Shapley values of two common feature sets have been analysed across multiple datasets to determine the influence contributed by each feature towards the final ML prediction.


翻译:基于机器学习(ML)的网络入侵探测系统为加强一个组织的网络安全态势带来了许多好处。许多系统是在研究界设计和开发的,在使用合成数据集进行评估时往往接近于完美检测率。然而,大量学术研究往往没有转化为实际部署。有几个原因造成了研究和生产之间的巨大差距,例如全面评估ML模型的能力有限和对内部ML操作缺乏了解。本文通过评价不同网络环境和攻击情景的通用特征集的可普及性来缩小差距。因此,从三个关键数据集(即CSE-CIC-IDS2018、BT-IoT和ToN-IoT)的探测准确性的角度评价了两套特征集(NetFlow特性集和CICFLlowMeter)。结果显示,NetFlow特性集在加强ML模型检测各种网络袭击的准确性方面具有优势。此外,由于学习模型的复杂性,Shanpley Additive Explicationationations (Spreportationationations), 解释了三种主要数据集的通用模型。

0
下载
关闭预览

相关内容

【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Inception Network 各版本演进史
AI研习社
3+阅读 · 2018年6月18日
教程推荐 | 机器学习、Python等最好的150余个教程
七月在线实验室
7+阅读 · 2018年6月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
xgboost特征选择
数据挖掘入门与实战
39+阅读 · 2017年10月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
VIP会员
相关VIP内容
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Inception Network 各版本演进史
AI研习社
3+阅读 · 2018年6月18日
教程推荐 | 机器学习、Python等最好的150余个教程
七月在线实验室
7+阅读 · 2018年6月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
xgboost特征选择
数据挖掘入门与实战
39+阅读 · 2017年10月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员