Graph Neural Networks (GNNs) have achieved promising performance in various real-world applications. Building a powerful GNN model is not a trivial task, as it requires a large amount of training data, powerful computing resources, and human expertise on fine-tuning the model. What is more, with the development of adversarial attacks, e.g., model stealing attacks, GNNs raise challenges to model authentication. To avoid copyright infringement on GNNs, it is necessary to verify the ownership of the GNN models. In this paper, we present a watermarking framework for GNNs for both graph and node classification tasks. We 1) design two strategies to generate watermarked data for the graph classification and one for the node classification task, 2) embed the watermark into the host model through training to obtain the watermarked GNN model, and 3) verify the ownership of the suspicious model in a black-box setting. The experiments show that our framework can verify the ownership of GNN models with a very high probability (around $100\%$) for both tasks. In addition, we experimentally show that our watermarking approach is still effective even when considering suspicious models obtained from different architectures than the owner's.


翻译:神经网络图(GNN)在各种现实应用中取得了有希望的绩效。 建立一个强大的GNN模型并不是一件小事,因为它需要大量的培训数据、强大的计算资源和精细调整模型的人力专长。 此外,随着对抗性攻击的开发,例如模型盗窃袭击,GNNS对模型认证提出了挑战。为了避免对GNN的版权侵犯,有必要核实GNN模型的所有权。在本文中,我们为GNN的图形和节点分类任务提出了一个水标记框架。我们1)设计了两个战略,为图表分类和节点分类任务生成水标记数据,一个战略是节点分类任务,2)通过培训将水标记嵌入主机模型,以获得水标记GNN模型模型,3)在黑箱设置中核查可疑模型的所有权。实验表明,我们的框架可以非常高的概率(约100美元)验证GNN模型对两项任务的所有权。此外,我们实验表明,我们的水标记方法仍然有效,即使考虑从不同建筑中获取的可疑模型。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
专知会员服务
51+阅读 · 2021年6月30日
专知会员服务
44+阅读 · 2020年10月31日
神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
已删除
inpluslab
8+阅读 · 2019年10月29日
Arxiv
0+阅读 · 2021年12月17日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
38+阅读 · 2020年12月2日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
26+阅读 · 2018年2月27日
VIP会员
相关资讯
已删除
inpluslab
8+阅读 · 2019年10月29日
相关论文
Arxiv
0+阅读 · 2021年12月17日
Arxiv
13+阅读 · 2021年7月20日
Arxiv
38+阅读 · 2020年12月2日
Weight Poisoning Attacks on Pre-trained Models
Arxiv
5+阅读 · 2020年4月14日
Deflecting Adversarial Attacks
Arxiv
8+阅读 · 2020年2月18日
Arxiv
26+阅读 · 2018年2月27日
Top
微信扫码咨询专知VIP会员