Deep learning models on graphs have achieved remarkable performance in various graph analysis tasks, e.g., node classification, link prediction and graph clustering. However, they expose uncertainty and unreliability against the well-designed inputs, i.e., adversarial examples. Accordingly, various studies have emerged for both attack and defense addressed in different graph analysis tasks, leading to the arms race in graph adversarial learning. For instance, the attacker has poisoning and evasion attack, and the defense group correspondingly has preprocessing- and adversarial- based methods. Despite the booming works, there still lacks a unified problem definition and a comprehensive review. To bridge this gap, we investigate and summarize the existing works on graph adversarial learning tasks systemically. Specifically, we survey and unify the existing works w.r.t. attack and defense in graph analysis tasks, and give proper definitions and taxonomies at the same time. Besides, we emphasize the importance of related evaluation metrics, and investigate and summarize them comprehensively. Hopefully, our works can serve as a reference for the relevant researchers, thus providing assistance for their studies. More details of our works are available at https://github.com/gitgiter/Graph-Adversarial-Learning.


翻译:图表上的深深学习模型在各种图表分析任务(如节点分类、链接预测和图表群)中取得了显著的成绩,然而,这些模型暴露出对设计良好的投入(即对抗性实例)的不确定性和不可靠性,因此,不同图表分析任务中针对攻击和防御的不同研究已经出现,导致图表对抗性学习中的军备竞赛。例如,攻击者有中毒和逃避攻击,而国防小组也相应地有预处理和对抗性方法。尽管工作正在蓬勃发展,但问题定义和全面审查仍然缺乏统一。为弥补这一差距,我们系统地调查和总结关于图表对抗性学习任务的现有工作。具体地说,我们在图表分析任务中调查并统一现有的攻击和防御工作,同时给出适当的定义和分类。此外,我们强调相关评价指标的重要性,并全面调查和总结。希望我们的工作能够作为相关研究人员的参考,从而为其研究提供协助。我们工作的更多细节可在 https://giharib./Graghistr/Gragivard查阅。

37
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
111+阅读 · 2020年3月18日
Hierarchically Structured Meta-learning
CreateAMind
14+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
11+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
8+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
34+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
9+阅读 · 2019年1月2日
RL 真经
CreateAMind
4+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
10+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
5+阅读 · 2017年8月4日
A Comprehensive Survey on Transfer Learning
Arxiv
106+阅读 · 2019年11月7日
Generative Adversarial Networks: A Survey and Taxonomy
Few-shot Learning: A Survey
Arxiv
346+阅读 · 2019年4月10日
Arxiv
44+阅读 · 2018年12月11日
Adversarial Transfer Learning
Arxiv
10+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
14+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
11+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
8+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
34+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
9+阅读 · 2019年1月2日
RL 真经
CreateAMind
4+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
10+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
16+阅读 · 2018年5月25日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
Auto-Encoding GAN
CreateAMind
5+阅读 · 2017年8月4日
相关论文
A Comprehensive Survey on Transfer Learning
Arxiv
106+阅读 · 2019年11月7日
Generative Adversarial Networks: A Survey and Taxonomy
Few-shot Learning: A Survey
Arxiv
346+阅读 · 2019年4月10日
Arxiv
44+阅读 · 2018年12月11日
Adversarial Transfer Learning
Arxiv
10+阅读 · 2018年12月6日
Arxiv
7+阅读 · 2018年6月8日
Top
微信扫码咨询专知VIP会员