题目:Adversarial Label-Flipping Attack and Defense for Graph Neural Networks 会议: ICDM 2020 论文代码: https://github.com/MengmeiZ/LafAK
随着GNN的广泛应用,其对于对抗攻击的鲁棒性越来越受到人们的关注。然而,现有的工作忽略了对抗标签翻转攻击,其中攻击者可以通过操纵少量的训练标签毒害模型训练。探索GNN对标签翻转攻击的鲁棒性是非常关键的,特别是当标签从外部来源收集并且容易注入错误标签时(例如推荐系统)。在这项工作中我们介绍了第一个对抗标签翻转攻击GNN的研究,并提出了一种有效的攻击模型LafAK,LafAK利用GCN的近似闭合解和不可微目标的连续代理,通过基于梯度的优化器高效地产生攻击。此外,我们还指出了GNNs易受标签翻转攻击的一个关键原因是对翻转节点的过拟合。基于此,我们提出了一个防御框架,该框架引入了一个基于社区分类的自监督任务作为正则化来避免过拟合。我们在四个真实的数据集上展示了我们提出的攻击模型和防御模型的有效性。