Graph Neural Networks (GNNs) have demonstrated superior performance in learning node representations for various graph inference tasks. However, learning over graph data can raise privacy concerns when nodes represent people or human-related variables that involve sensitive or personal information. While numerous techniques have been proposed for privacy-preserving deep learning over non-relational data, such as image, audio, video, and text, there is less work addressing the privacy issues pertained to applying deep learning algorithms on graphs. As a result and for the first time, in this paper, we study the problem of node data privacy, where graph nodes have potentially sensitive data that is kept private, but they could be beneficial for a central server for training a GNN over the graph. To address this problem, we develop a privacy-preserving, architecture-agnostic GNN learning algorithm with formal privacy guarantees based on Local Differential Privacy (LDP). Specifically, we propose an LDP encoder and an unbiased rectifier, using which the server can communicate with the graph nodes to privately collect their data and approximate the GNN's first layer. To further reduce the effect of the injected noise, we propose to prepend a simple graph convolution layer, called KProp, which is based on the multi-hop aggregation of the nodes' features acting as a denoising mechanism. Finally, we propose a robust training framework, in which we benefit from KProp's denoising capability to increase the accuracy of noisy labels. Extensive experiments conducted over real-world datasets demonstrate that our method can maintain a satisfying level of accuracy with low privacy loss. Our implementation is available online.


翻译:内建图网络( GNNs) 显示在为各种图形推断任务学习节点表达方式方面表现优异。 但是, 平图上的数据在显示涉及敏感或个人信息的人群或与人类相关的变量时可能会引起隐私问题。 虽然提出了多种技术来保护隐私,对非关系数据,例如图像、音频、视频和文本进行深层学习,但解决与在图表中应用深层学习算法有关的隐私问题的工作却较少。 因此,我们首次在本文中研究节点数据隐私问题,因为图形节点有潜在保密的敏感数据,但对于在图形中培训 GNNN或与人类相关的变量的变量来说,它们可能有益于一个中央服务器。为了解决这一问题,我们开发了一种基于本地差异隐私(LDP)的正式隐私保障的隐私保护、结构-NNNNN学习算法。 具体地说,我们提出了一种LDP coder 和一种公正的校正, 服务器可以使用它与图形节点进行私下收集数据,并接近GNNNN的精度第一层数据,但对于在图形上培训的中央服务器是有好处。,我们用一个简单的缩略图的计算方法,我们用了一个高压的计算方法, 我们用了一个高压的计算方法, 我们用了一个高压的图的图图的计算。 最后,我们用了一个高的计算方法,我们用了一个高压的图图图图,我们用了一个高的计算。

0
下载
关闭预览

相关内容

【图神经网络导论】Intro to Graph Neural Networks,176页ppt
专知会员服务
126+阅读 · 2021年6月4日
专知会员服务
54+阅读 · 2020年11月3日
专知会员服务
45+阅读 · 2020年10月31日
一份简单《图神经网络》教程,28页ppt
专知会员服务
126+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年4月29日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
10+阅读 · 2018年2月4日
VIP会员
相关资讯
Graph Neural Network(GNN)最全资源整理分享
深度学习与NLP
339+阅读 · 2019年7月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
已删除
将门创投
5+阅读 · 2019年4月29日
Top
微信扫码咨询专知VIP会员