As a way to implement the "right to be forgotten" in machine learning, \textit{machine unlearning} aims to completely remove the contributions and information of the samples to be deleted from a trained model without affecting the contributions of other samples. Recently, many frameworks for machine unlearning have been proposed, and most of them focus on image and text data. To extend machine unlearning to graph data, \textit{GraphEraser} has been proposed. However, a critical issue is that \textit{GraphEraser} is specifically designed for the transductive graph setting, where the graph is static and attributes and edges of test nodes are visible during training. It is unsuitable for the inductive setting, where the graph could be dynamic and the test graph information is invisible in advance. Such inductive capability is essential for production machine learning systems with evolving graphs like social media and transaction networks. To fill this gap, we propose the \underline{{\bf G}}\underline{{\bf U}}ided \underline{{\bf I}}n\underline{{\bf D}}uctiv\underline{{\bf E}} Graph Unlearning framework (GUIDE). GUIDE consists of three components: guided graph partitioning with fairness and balance, efficient subgraph repair, and similarity-based aggregation. Empirically, we evaluate our method on several inductive benchmarks and evolving transaction graphs. Generally speaking, GUIDE can be efficiently implemented on the inductive graph learning tasks for its low graph partition cost, no matter on computation or structure information. The code will be available here: https://github.com/Happy2Git/GUIDE.


翻译:作为实现机器学习中"被遗忘的权利"的一种方式,\textit{机器去学习}旨在从经过训练的模型中完全删除要删除的样本的贡献和信息,而不影响其他样本的贡献。最近,已经提出了许多针对机器去学习的框架,大多数关注的是图像和文本数据。为了将机器去学习扩展到图形数据,提出了\textit{GraphEraser}。然而,一个关键问题是\textit{GraphEraser}专门为传递图设置而设计的,其中图形是静态的,测试节点的属性和边缘在训练期间是可见的。对于归纳设置来说是不合适的,其中图可能是动态的,测试图信息事先是不可见的。这种归纳能力对于具有不断发展的图,如社交媒体和交易网络的生产机器学习系统来说是至关重要的。为了填补这个空白,我们提出了GUidide IDuctivE图去学习框架(GUIDE)。GUIDE包括三个组件:带有公平性和平衡的引导图分区,高效的子图修复和基于相似性的聚合。从经验上来看,我们在几个归纳基准和不断发展的交易图上评估了我们的方法。总的来说,GUIDE可以在归纳图学习任务上有效地实现,因为它具有低图分区成本,在计算或结构信息方面都如此。代码将在这里提供: https://github.com/Happy2Git/GUIDE。

0
下载
关闭预览

相关内容

图模型由点和线组成的用以描述系统的图形。图模型属于结构模型(见模型),可用于描述自然界和人类社会中的大量事物和事物之间的关系。在建模中采用图模型可利用图论作为工具。按图的性质进行分析为研究各种系统特别是复杂系统提供了一种有效的方法。构成图模型的图形不同于一般的几何图形。例如,它的每条边可以被赋以权,组成加权图。权可取一定数值,用以表示距离、流量、费用等。加权图可用于研究电网络、运输网络、通信网络以及运筹学中的一些重要课题。图模型广泛应用于自然科学、工程技术、社会经济和管理等方面。见动态结构图、信号流程图、计划协调技术、图解协调技术、风险协调技术、网络技术、网络理论。
【ICDM 2022教程】图挖掘中的公平性:度量、算法和应用
专知会员服务
26+阅读 · 2022年12月26日
【DeepMind】结构化数据少样本学习,51页ppt
专知会员服务
32+阅读 · 2022年8月13日
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
39+阅读 · 2022年2月28日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
17+阅读 · 2021年11月6日
专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
31+阅读 · 2021年7月15日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
【元图(Meta-Graph):元学习小样本连接预测】
专知会员服务
62+阅读 · 2020年5月31日
一文带你浏览Graph Transformers
极市平台
1+阅读 · 2022年7月12日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
GraphSAGE: GCN落地必读论文
AI100
29+阅读 · 2019年8月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月21日
Arxiv
38+阅读 · 2020年3月10日
VIP会员
相关VIP内容
【ICDM 2022教程】图挖掘中的公平性:度量、算法和应用
专知会员服务
26+阅读 · 2022年12月26日
【DeepMind】结构化数据少样本学习,51页ppt
专知会员服务
32+阅读 · 2022年8月13日
AAAI 2022 | ProtGNN:自解释图神经网络
专知会员服务
39+阅读 · 2022年2月28日
【NeurIPS2021】基于贝叶斯优化的图分类对抗攻击
专知会员服务
17+阅读 · 2021年11月6日
专知会员服务
15+阅读 · 2021年8月13日
专知会员服务
31+阅读 · 2021年7月15日
【ICLR2021】通过多种自监督方式提升GAT中注意力
专知会员服务
43+阅读 · 2021年2月27日
【元图(Meta-Graph):元学习小样本连接预测】
专知会员服务
62+阅读 · 2020年5月31日
相关资讯
一文带你浏览Graph Transformers
极市平台
1+阅读 · 2022年7月12日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
GraphSAGE: GCN落地必读论文
AI100
29+阅读 · 2019年8月15日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员