Recent advances in deep learning renewed the research interests in machine learning for Network Intrusion Detection Systems (NIDS). Specifically, attention has been given to sequential learning models, due to their ability to extract the temporal characteristics of Network traffic Flows (NetFlows), and use them for NIDS tasks. However, the applications of these sequential models often consist of transferring and adapting methodologies directly from other fields, without an in-depth investigation on how to leverage the specific circumstances of cybersecurity scenarios; moreover, there is a lack of comprehensive studies on sequential models that rely on NetFlow data, which presents significant advantages over traditional full packet captures. We tackle this problem in this paper. We propose a detailed methodology to extract temporal sequences of NetFlows that denote patterns of malicious activities. Then, we apply this methodology to compare the efficacy of sequential learning models against traditional static learning models. In particular, we perform a fair comparison of a `sequential' Long Short-Term Memory (LSTM) against a `static' Feedforward Neural Networks (FNN) in distinct environments represented by two well-known datasets for NIDS: the CICIDS2017 and the CTU13. Our results highlight that LSTM achieves comparable performance to FNN in the CICIDS2017 with over 99.5\% F1-score; while obtaining superior performance in the CTU13, with 95.7\% F1-score against 91.5\%. This paper thus paves the way to future applications of sequential learning models for NIDS.


翻译:最近深层学习的进展重新激发了对网络入侵探测系统机器学习的研究兴趣。具体地说,由于能够提取网络交通流动(NetFlows)的时间特征,并用于NIDS任务,因此重视连续学习模式,但这些相继模式的应用往往包括从其他领域直接转让和调整方法,而没有深入调查如何利用网络安全情景的具体情况;此外,缺乏对依赖NetFlow数据的连续模型的全面研究,这比传统的全包采集大有优势。我们在本文中处理这一问题。我们提出了详细的方法,以提取显示网络交通流动(NetFlows)的时间特征,并用于NIDS的任务。然而,我们运用这一方法将顺序学习模式的效力与传统的静态学习模式进行比较。特别是,我们比较了“相应”长期记忆(LSTM)与“静态”的进路20型神经网络(FNNN)在以两个众所周知的数据集为代表的独特环境中的“时间序列”的“时间序列序列序列序列图”,我们用IMIS IS IS IS 917 和CIS 的直径可比较性成绩,同时用我们的CIS IS IS IS IM IMS IMS IMS 和C IM IM 和C IS IM IM 5 和C 和C IMS IMS IM 5 和C IM 和C IMS IMS 5 和C 和C 5 和C 和C IMS 5 10 和C 和C 的C 5 10 IM IM 和C 和C 5 的C 的成绩对比性成绩 IM IM 5 5 IM 和C IMS IM IM IM IMS 5 IMS 和C 5 IMS 5 和C 和C 和C 5 5 5 和C 和C 和C 和C 5 5 和CS 和CS 和CS 和CS 5 5 和C 5 和C 和CS 和CS 和C 和CS 和CS 和CS 的C 和CS 和CS 和CS 和C 5 5 5 5

1
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Anomalous Instance Detection in Deep Learning: A Survey
A Comprehensive Survey on Transfer Learning
Arxiv
121+阅读 · 2019年11月7日
Deep Learning for Deepfakes Creation and Detection
Arxiv
6+阅读 · 2019年9月25日
Arxiv
53+阅读 · 2018年12月11日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
Arxiv
3+阅读 · 2018年3月28日
VIP会员
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Top
微信扫码咨询专知VIP会员