Graph neural networks (GNNs) have been utilized to create multi-layer graph models for a number of cybersecurity applications from fraud detection to software vulnerability analysis. Unfortunately, like traditional neural networks, GNNs also suffer from a lack of transparency, that is, it is challenging to interpret the model predictions. Prior works focused on specific factor explanations for a GNN model. In this work, we have designed and implemented Illuminati, a comprehensive and accurate explanation framework for cybersecurity applications using GNN models. Given a graph and a pre-trained GNN model, Illuminati is able to identify the important nodes, edges, and attributes that are contributing to the prediction while requiring no prior knowledge of GNN models. We evaluate Illuminati in two cybersecurity applications, i.e., code vulnerability detection and smart contract vulnerability detection. The experiments show that Illuminati achieves more accurate explanation results than state-of-the-art methods, specifically, 87.6% of subgraphs identified by Illuminati are able to retain their original prediction, an improvement of 10.3% over others at 77.3%. Furthermore, the explanation of Illuminati can be easily understood by the domain experts, suggesting the significant usefulness for the development of cybersecurity applications.


翻译:图神经网络(GNNs)已被应用于创建多层图模型的许多网络安全应用程序,从欺诈检测到软件漏洞分析。不幸的是,与传统神经网络一样,GNNs也存在着缺乏透明性的问题,即,很难解释模型的预测。以前的工作专注于GNN模型特定因素的解释。在这项工作中,我们设计和实现了Illuminati,一个使用GNN模型进行网络安全应用程序的全面和准确的解释框架。给定一个图和一个预训练的GNN模型,Illuminati能够识别有助于预测的重要节点、边缘和属性,同时不需要先前对GNN模型的了解。我们在两个网络安全应用程序中评估了Illuminati,即代码漏洞检测和智能合约漏洞检测。实验表明,Illuminati的解释结果比最先进的方法更准确,具体包括87.6%的Illuminati识别的子图能够保持其原始预测,而其他方法仅有77.3%,是提高了10.3%。此外,Illuminati的解释可以被领域专家轻松理解,这表明了其在网络安全应用程序开发中的重要用处。

0
下载
关闭预览

相关内容

网络安全从其本质上来讲就是网络上的信息安全。从广义来说,凡是涉及到网络上信息的保密性、完整性、可用性、真实性和可控性的相关技术和理论都是网络安全的研究领域。网络安全是一门涉及计算机科学、网络技术、通信技术、密码技术、信息安全技术、应用数学、数论、信息论等多种学科的综合性学科。
【2023新书】负责任图神经网络,324页pdf
专知会员服务
79+阅读 · 2023年4月12日
【2023新书】可解释的深度学习AI:方法和挑战,348页pdf
专知会员服务
167+阅读 · 2023年3月26日
【ICDM 2022教程】图挖掘中的公平性:度量、算法和应用
专知会员服务
27+阅读 · 2022年12月26日
【PKDD2020教程】可解释人工智能XAI:算法到应用,200页ppt
专知会员服务
100+阅读 · 2020年10月13日
最新《图神经网络知识图谱补全》综述论文
专知会员服务
155+阅读 · 2020年7月29日
【2023新书】负责任图神经网络,324页pdf
专知
11+阅读 · 2023年4月12日
46页pdf, 165篇文献 | 图的可解释性
图与推荐
3+阅读 · 2022年10月25日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
AAAI 2022 | ProtGNN:自解释图神经网络络
PaperWeekly
0+阅读 · 2022年8月22日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
22+阅读 · 2021年12月2日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员