本教程系统地介绍了图神经网络(GNNs)的自监督学习和预训练。演讲者从阿里巴巴、微信和AMiner的行业示例出发,解释了图挖掘和机器学习如何从GNNs中受益。接着,他们全面介绍了GNNs自监督学习和预训练的历史和最新进展。最后,他们介绍了CogDL——一个用于图深度学习的综合库。在CogDL中,他们为图神经网络(GNN)模型的训练循环提出了统一的设计,使其在现有的图学习库中独具特色。本教程介绍的所有GNN模型、自监督和预训练技术都提供了在CogDL中可复制的代码。独特的是,本教程旨在为听众提供:1)图上最近的自监督学习技术,2)图上的预训练进展,以及3)用于训练自监督GNNs和预训练GNNs的易于使用的CogDL API和示例。

成为VIP会员查看完整内容
35

相关内容

【WWW2023教程】持续图学习教程,106页pdf
专知会员服务
55+阅读 · 2023年5月4日
【KDD2022教程】Transformers多模态数据分类,41页ppt
专知会员服务
84+阅读 · 2022年8月18日
【ECML/PKDD20教程】图表示学习与应用,200页ppt
专知会员服务
90+阅读 · 2020年10月18日
谷歌大脑《自动强化学习》教程,81页ppt!
专知
0+阅读 · 2022年8月15日
ICML2020 图神经网络的预训练
图与推荐
12+阅读 · 2020年4月4日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
16+阅读 · 2022年11月21日
Arxiv
16+阅读 · 2022年11月1日
VLP: A Survey on Vision-Language Pre-training
Arxiv
11+阅读 · 2022年2月21日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Arxiv
15+阅读 · 2020年2月5日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
相关论文
微信扫码咨询专知VIP会员