【简介】深度神经网络(DNNs)在各项任务上都取得了不俗的表现。然而,最近的研究表明通过对输入进行很小的扰动就可以轻易的骗过DNNs,这被称作对抗式攻击。作为DNNs在图上的扩展,图神经网络(GNNs)也继承了这一缺陷。对手通过修改图中的一些边等操作来改变图的结构可以误导GNNs作出错误的预测。这一漏洞已经引起了人们对在安全领域关键应用中采用GNNs的极大关注,并在近年来引起了越来越多的人的研究兴趣。因此,对目前的图对抗式攻击和反制措施进行一个全面的梳理和回顾是相当有必要的。在这篇综述中,我们对目前的攻击和防御进行了分类,以及回顾了相关表现优异的模型。最后,我们开发了一个具有代表性算法的知识库,该知识库可以使我们进行相关的研究来加深我们对基于图的攻击和防御的理解。

成为VIP会员查看完整内容
68

相关内容

对抗机器学习(Adverserial Machine Learning)作为机器学习研究中的安全细分方向,在一定程度上保证模型的安全性
专知会员服务
178+阅读 · 2020年6月21日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
292+阅读 · 2020年6月16日
【综述】交通流量预测,附15页论文下载
专知会员服务
128+阅读 · 2020年4月23日
2020图机器学习GNN的四大研究趋势,21篇论文下载
专知会员服务
135+阅读 · 2020年2月10日
【浙江大学】对抗样本生成技术综述
专知会员服务
89+阅读 · 2020年1月6日
图数据表示学习综述论文
专知
51+阅读 · 2019年6月10日
【综述】生成式对抗网络GAN最新进展综述
专知
57+阅读 · 2019年6月5日
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
4+阅读 · 2018年1月19日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
相关VIP内容
相关论文
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
4+阅读 · 2018年1月19日
Arxiv
8+阅读 · 2018年1月12日
Arxiv
3+阅读 · 2017年10月1日
微信扫码咨询专知VIP会员