「NeurIPS 2020」基于局部子图的图元学习

2020 年 10 月 21 日 图与推荐

点击蓝字,设为星标








「NeurIPS 2020」 的接收论文《Graph Meta Learning via Local Subgraphs》,「G-META 是第一个使用局部子图来进行元学习的模型。」

Graph Meta Learning via Local Subgraphs

目前流行的图学习方法需要丰富的标签和边信息进行学习。「当新任务的数据稀缺时,元学习允许我们从以前的经验中学习」,并形成急需的归纳偏见,以便快速适应新任务。

此文介绍了「G-META,一种新的图的元学习方法:」

  1. G-META 使用局部子图传递特定于子图的信息,并通过元梯度使模型更快地学习基本知识。
  2. G-META 学习如何仅使用新任务中的少数节点或边来快速适应新任务,并通过学习其他图或相关图(尽管是不相交的标签集)中的数据点来做到这一点。

G-META 在理论上是合理的,因为「特定预测的证据可以在目标节点或边周围的局部子图中找到。」

现有方法是专门为特定的图元学习问题和特定的任务设计的专门技术。虽然这些方法为 GNN 中的元学习提供了一种很有前途的方法,但它们的特定策略没有很好的伸缩性,也不能扩展到其他图的元学习问题(图1)。

图1:图的元学习问题。
A.元学习器通过观察同一图中的其他标签集来对看不见的标签集进行分类。
B.元学习器通过学习具有相同标签集的其他图来学习看不见的图。
C.元学习器通过学习多个图上的其他标签集来对看不见的标签集进行分类。

「与现有的方法不同,G-META 可以解决上述三个问题,并且还适用于链接预测」

在7个数据集和9个基线方法上的实验表明,「G-META 的性能比现有方法高出16.3%」

与以前的方法不同,G-META 可以在具有挑战性的、few-shot learning 的学习环境中成功地学习,这些学习环境需要将其推广到全新的图形和从未见过的标签中。

最后,G-META 可扩展到大型图,文章在包含1840个图的新 Tree-of-Life 数据集中进行了演示,这比以前工作中使用的图的数量增加了两个数量级。

G-META 模型图

  • (1)首先构造一批 个元训练任务,并为元任务中的节点动态提取局部子图。
  • 对于每个任务 ,(2)来自支撑集中的子图是最小批处理的,并且被馈送到由 参数化的 GNN 中。
  • (3)利用质心节点生成支撑集嵌入;
  • (4)根据支撑质心嵌入计算原型。
  • 然后,(5)计算支撑集损失 ,以及(6)反向传播以更新 GNN 参数。
  • (7)子图 馈送到更新后的 GNN 中以(8)生成查询质心嵌入。
  • (9)利用支撑原型和查询嵌入,计算任务 的查询损失
  • 对于 更新步骤重复步骤(2-9)。
  • 从相同的 GNN   开始,对其他 个采样任务重复相同的过程。
  • (10)对所有任务的上一次更新步骤的查询损失进行汇总,并用于更新 。然后,对另一批任务进行采样,重复步骤(1-10)。
  • 然后,对于元测试任务,使用元学习参数 对 GNN 重复步骤(1-9),这使得能够对看不见的任务进行泛化。

数据集

数据集统计信息。Fold-PPI 和 Tree-of-Life是此工作中引入的新数据集

实验结果

合成数据集上的图元学习性能:

真实数据集上的图元学习性能:

往期精彩推荐

图神经网络资源大集合~快来打包带走



扫码关注   设为星标         及时获得精彩消息

图神经网络/推荐算法/图表示学习

球分享

球点赞

球在看

登录查看更多
1

相关内容

Meta Learning,元学习,也叫 Learning to Learn(学会学习)。是继Reinforcement Learning(增强学习)之后又一个重要的研究分支。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
28+阅读 · 2020年12月15日
专知会员服务
38+阅读 · 2020年11月24日
【NeurIPS 2020】基于因果干预的小样本学习
专知会员服务
69+阅读 · 2020年10月6日
【KDD2020】TAdaNet: 用于图增强元学习的任务自适应网络
专知会员服务
18+阅读 · 2020年9月21日
【元图(Meta-Graph):元学习小样本连接预测】
专知会员服务
65+阅读 · 2020年5月31日
【基于元学习的推荐系统】5篇相关论文
专知
11+阅读 · 2020年1月20日
元学习(Meta-Learning) 综述及五篇顶会论文推荐
Meta-Learning 元学习:学会快速学习
专知
24+阅读 · 2018年12月8日
OpenAI提出Reptile:可扩展的元学习算法
深度学习世界
7+阅读 · 2018年3月9日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
17+阅读 · 2019年3月28日
Meta-Transfer Learning for Few-Shot Learning
Arxiv
8+阅读 · 2018年12月6日
Adversarial Reprogramming of Neural Networks
Arxiv
3+阅读 · 2018年6月28日
Arxiv
7+阅读 · 2018年6月8日
VIP会员
相关VIP内容
专知会员服务
28+阅读 · 2020年12月15日
专知会员服务
38+阅读 · 2020年11月24日
【NeurIPS 2020】基于因果干预的小样本学习
专知会员服务
69+阅读 · 2020年10月6日
【KDD2020】TAdaNet: 用于图增强元学习的任务自适应网络
专知会员服务
18+阅读 · 2020年9月21日
【元图(Meta-Graph):元学习小样本连接预测】
专知会员服务
65+阅读 · 2020年5月31日
Top
微信扫码咨询专知VIP会员