Node classification based on graph convolutional networks (GCNs) is vulnerable to adversarial attacks by maliciously perturbing graph structures, such as inserting or deleting graph edges. The existing research works do not seem to be able to unify the formulation of such edge-perturbing attacks, so it is unable to design a more essential defense scheme. Thus, in this paper, considering that most researchers find the attack scheme by ergodically perturbing edge in a diverse and manual way, we unify such edge-perturbing attacks as an automatic general attack model, named edge-reading attack (ERA). ERA can find the concealed and high success rate attack scheme by automatically traverse and perturb edges repeatedly. ERA is also the unified description form of edge-perturbing attacks in the form of the mathematical formula. Relying on ERA, we further demonstrate the vulnerability of GCNs, i.e., the edge-reading permission can easily create opportunities for adversarial attacks. To address this problem, we propose an anonymous graph convolutional network (AN-GCN), which allows classifying nodes without reading the edge information of GCNs. Specifically, we propose the node localization theorem for the first time to demonstrate how GCN locates nodes during training. Then, AN-GCN is designed to make the nodes participate in the prediction anonymously, thus withdrawing the edge-reading permission of the model. Since AN-GCN can predict node categories without edge information, the administrator can withdraw the read permission of edge information to all roles (including attackers), so attackers will lose the basic condition of injecting edge perturbations. Extensive evaluations show that, our proposed general attack model can accurately manipulate the classification results of the target nodes, thus maintaining high-level security in defending against edge-perturbing adversarial attacks on graph


翻译:基于图形相扰网络(GCNs)的节点分类很容易受到恶意扰动图形结构(如插入或删除图形边缘)的对抗性攻击,例如插入或删除图形边缘。现有的研究工作似乎无法统一这种边缘扰动袭击的配方,因此无法设计更必要的防御计划。因此,在本文中,考虑到大多数研究人员发现攻击计划是通过以不同手动方式的神经扰动边缘进行的,我们将这种边缘扰动攻击作为自动通用攻击模式(称为边缘阅读攻击(ERA))来统一起来。ERA可以通过自动穿透和删除图形边缘边缘的图形结构来发现隐藏和高成功率袭击计划。ERA似乎无法将这种边缘扰动袭击的配方组合合并起来,因此,ERA也是以数学公式的形式对边缘袭击进行统一描述的形式。在ERA上,我们进一步展示了GCNs的弱点,即边际攻击提议可以很容易为对抗性攻击创造机会。为了解决这个问题,我们提议了一个匿名的CN正向网络(AN-CN CN) 直径读网络(AN-CN-CN-CN-CN) 直径读取 直径可不显示直径直径直径直径攻击的结果,从而显示直径直径直径直径显示直径的直径显示直径向。

0
下载
关闭预览

相关内容

专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
52+阅读 · 2020年11月3日
专知会员服务
123+阅读 · 2020年9月8日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【TED】什么让我们生病
英语演讲视频每日一推
7+阅读 · 2019年1月23日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关VIP内容
专知会员服务
33+阅读 · 2020年12月28日
专知会员服务
52+阅读 · 2020年11月3日
专知会员服务
123+阅读 · 2020年9月8日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
【快讯】CVPR2020结果出炉,1470篇上榜, 你的paper中了吗?
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
相关资讯
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
【TED】什么让我们生病
英语演讲视频每日一推
7+阅读 · 2019年1月23日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】树莓派/OpenCV/dlib人脸定位/瞌睡检测
机器学习研究会
9+阅读 · 2017年10月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员