Heterogeneous graph neural networks (HGNNs) have achieved strong performance in many real-world applications, yet targeted backdoor poisoning on heterogeneous graphs remains less studied. We consider backdoor attacks for heterogeneous node classification, where an adversary injects a small set of trigger nodes and connections during training to force specific victim nodes to be misclassified into an attacker-chosen label at test time while preserving clean performance. We propose HeteroHBA, a generative backdoor framework that selects influential auxiliary neighbors for trigger attachment via saliency-based screening and synthesizes diverse trigger features and connection patterns to better match the local heterogeneous context. To improve stealthiness, we combine Adaptive Instance Normalization (AdaIN) with a Maximum Mean Discrepancy (MMD) loss to align the trigger feature distribution with benign statistics, thereby reducing detectability, and we optimize the attack with a bilevel objective that jointly promotes attack success and maintains clean accuracy. Experiments on multiple real-world heterogeneous graphs with representative HGNN architectures show that HeteroHBA consistently achieves higher attack success than prior backdoor baselines with comparable or smaller impact on clean accuracy; moreover, the attack remains effective under our heterogeneity-aware structural defense, CSD. These results highlight practical backdoor risks in heterogeneous graph learning and motivate the development of stronger defenses.


翻译:异质图神经网络(HGNNs)在众多实际应用中已展现出卓越性能,然而针对异质图的定向后门投毒攻击研究仍相对匮乏。本文研究异质图节点分类任务中的后门攻击,攻击者通过在训练阶段注入少量触发节点与连接,迫使特定受害节点在测试时被误分类至攻击者选定的目标类别,同时保持模型在干净样本上的性能。我们提出HeteroHBA——一种生成式后门攻击框架,该框架通过基于显著性的筛选机制为触发节点选择有影响力的辅助邻居进行连接,并合成多样化的触发特征与连接模式以更好地匹配局部异质图上下文。为提升隐蔽性,我们结合自适应实例归一化(AdaIN)与最大均值差异(MMD)损失,将触发特征分布与良性统计特征对齐以降低可检测性,并通过双层优化目标联合促进攻击成功率并维持干净准确率。在多个真实世界异质图数据集及代表性HGNN架构上的实验表明,HeteroHBA在保持对干净准确率相当或更小影响的前提下,持续取得比现有后门基线方法更高的攻击成功率;此外,该攻击在我们提出的异质图感知结构防御方法CSD下依然有效。这些结果揭示了异质图学习中实际存在的后门风险,并呼吁发展更强大的防御机制。

0
下载
关闭预览

相关内容

【WWW2024】自引导鲁棒图结构精化
专知会员服务
17+阅读 · 2024年4月26日
【AAAI2022】学会学习可迁移攻击
专知会员服务
16+阅读 · 2021年12月15日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
18+阅读 · 2021年11月6日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
【NeurIPS2019】图变换网络:Graph Transformer Network
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
0+阅读 · 2025年12月25日
VIP会员
相关VIP内容
【WWW2024】自引导鲁棒图结构精化
专知会员服务
17+阅读 · 2024年4月26日
【AAAI2022】学会学习可迁移攻击
专知会员服务
16+阅读 · 2021年12月15日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
18+阅读 · 2021年11月6日
【NeurIPS2019】图变换网络:Graph Transformer Network
专知会员服务
112+阅读 · 2019年11月25日
相关资讯
【NeurIPS2019】图变换网络:Graph Transformer Network
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员