以常见的消息传播网络(Message Passing Neural Network, MPNN)为例, 其核心思想是迭代更新节点的嵌入向量(embedding vector)。更新的方式是,首先每个节点会收到来自于它邻居节点传来的消息(message),再对所收到的信息做聚合(aggregation),以此来更新自身的嵌入向量。神经网络既参与第一步生成消息的过程,又参与之后更新节点的嵌入向量的过程。当使用不同的神经网络模型作为消息生成函数和节点更新函数时,便可得到不同种类的MPNN模型。

https://www.graphneuralnets.com/courses/foundational-theory-of-gnns/lectures/36125373

成为VIP会员查看完整内容
18

相关内容

专知会员服务
37+阅读 · 2020年11月24日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
Zak最新《神经信息传递》,附Slides与视频
专知
0+阅读 · 2022年2月15日
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
图卷积网络介绍及进展【附PPT与视频资料】
人工智能前沿讲习班
24+阅读 · 2019年1月3日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月28日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月19日
Arxiv
35+阅读 · 2021年1月27日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
10+阅读 · 2018年3月23日
VIP会员
相关VIP内容
专知会员服务
37+阅读 · 2020年11月24日
【PKDD2020教程】机器学习不确定性,附88页ppt与视频
专知会员服务
94+阅读 · 2020年10月18日
【NeurIPS2020】图网的主邻域聚合
专知会员服务
32+阅读 · 2020年9月27日
相关资讯
Zak最新《神经信息传递》,附Slides与视频
专知
0+阅读 · 2022年2月15日
【资源】强化学习实践教程
专知
43+阅读 · 2019年9月11日
图神经网络综述:方法及应用 | Deep Reading
AI100
36+阅读 · 2019年3月17日
图卷积网络介绍及进展【附PPT与视频资料】
人工智能前沿讲习班
24+阅读 · 2019年1月3日
图卷积神经网络的变种与挑战【附PPT与视频资料】
人工智能前沿讲习班
27+阅读 · 2018年12月28日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2022年4月19日
Arxiv
35+阅读 · 2021年1月27日
Recent advances in deep learning theory
Arxiv
50+阅读 · 2020年12月20日
Arxiv
27+阅读 · 2020年6月19日
Arxiv
24+阅读 · 2018年10月24日
Arxiv
10+阅读 · 2018年3月23日
微信扫码咨询专知VIP会员