Graph: 表现再差,也不进行Pre-Training? Self-Supervised Learning真香!

2020 年 6 月 30 日 机器学习与推荐算法

作者 | 吴龙灿

方向 | 图神经网络、推荐系统

学校 | 东北大学

最近图(Graph)数据上面的预训练技术引起了大家的广泛关注。之所以如此,是因为现实世界中绝大多数的数据是无标签的,因此很难直接进行监督学习。若给大量数据进行人工标注需要很大的开销,因此如何在已有数据本身上面开展假定任务(Pretext Task)进行表示学习,成为了近年来研究的热点。

从数据集的角度可以分为:特定Graph数据上面进行预训练,然后应用在这个特定Graph上面的一些下游任务;不同领域Graph数据拿到一起进行预训练,然后应用在其他领域的图数据上面。

目前主要的出发点还是通过Graph数据本身的一些信号,比如节点特征,边特征,图级别特征作为自监督的信号来训练整个模型。实际上,经典的图嵌入模型Deepwalk就是图上自监督训练的模式,通过对图进行随机游走产生序列,然后通过中心结点预测上下文结点的假定任务来完成结点表示的训练。
模型的角度来说,主要有基于Bert的模型,基于随机游走的模型,基于自编码器的模型以及基于GNN的模型。

 1   相关论文

小编整理了最近发表的关于图上进行自监督学习/预训练相关的综述文章。

  • Strategies for Pre-training Graph Neural Networks. 2020. ICLR

  • GPT-GNN: Generative Pre-Training of Graph Neural Networks. 2020. KDD

  • Pre-Training Graph Neural Networks for Generic Structural Feature Extraction. 2020

  • Self-supervised Learning: Generative or Contrastive. 2020.

  • Gaining insight into SARS-CoV-2 infection and COVID-19 severity using self-supervised edge features and Graph Neural Networks. 2020. ICML

  • When Does Self-Supervision Help Graph Convolutional Networks? 2020. ICML

  • Multi-Stage Self-Supervised Learning for Graph Convolutional Networks on Graphs with Few Labeled Nodes. 2020. AAAI

  • GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training. 2020. KDD

  • Self-Supervised Graph Representation Learning via Global Context Prediction. 2020.

  • Contrastive Multi-View Representation Learning on Graphs. 2020.

  • Self-supervised Training of Graph Convolutional Networks. 2020.

  • Self-supervised Learning on Graphs: Deep Insights and New Directions. 2020.

  • GRAPH-BERT: Only Attention is Needed for Learning Graph Representations. 2020.

  • Graph Neural Distance Metric Learning with GRAPH-BERT. 2020.

  • Segmented GRAPH-BERT for Graph Instance Modeling. 2020.

 2   参考资料

  1. [KDD2020图神经网络预训练模型]

    https://zhuanlan.zhihu.com/p/149222809

  2. [图上自监督学习综述]

    https://zhuanlan.zhihu.com/p/150112070

  3. [图神经网络的预训练策略]

    https://zhuanlan.zhihu.com/p/124663407

  4. [GNN 教程-图上的预训练任务下篇]

    https://archwalker.github.io/blog/2019/08/08/GNN-Pretraining-1.html

推荐阅读

[0].一文尽览推荐系统模型演变史(文末可下载)
[1]. KDD2020推荐系统论文聚焦
[2]. 推荐系统之FM与MF傻傻分不清楚
[3]. 利用对抗技术来权衡推荐精度与用户隐私

喜欢的话点个在看吧👇
登录查看更多
3

相关内容

元学习(meta learning) 最新进展综述论文
专知会员服务
275+阅读 · 2020年5月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
AAAI 2020 | 北大:图卷积中的多阶段自监督学习算法
AI科技评论
8+阅读 · 2020年1月12日
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Arxiv
34+阅读 · 2020年1月2日
Arxiv
7+阅读 · 2018年5月23日
Arxiv
3+阅读 · 2018年4月10日
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关VIP内容
元学习(meta learning) 最新进展综述论文
专知会员服务
275+阅读 · 2020年5月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
相关资讯
【KDD2020】图神经网络生成式预训练
专知
20+阅读 · 2020年7月3日
AAAI 2020 | 北大:图卷积中的多阶段自监督学习算法
AI科技评论
8+阅读 · 2020年1月12日
一文读懂图卷积GCN
计算机视觉life
21+阅读 · 2019年12月21日
Graph Neural Networks 综述
计算机视觉life
29+阅读 · 2019年8月13日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
基于注意力机制的图卷积网络
科技创新与创业
73+阅读 · 2017年11月8日
Top
微信扫码咨询专知VIP会员