图神经网络(GNNs)是一种神经网络架构,旨在学习从图到向量空间的映射。由于它们在实践中的成功,它们已经成为节点、图和点配置预测任务的流行机器学习模型。在本次演讲中,我们总结了关于广泛使用的消息传递GNN和高阶GNN的近似和学习特性的最新理论成果,重点关注函数近似、估计和泛化以及外推。一路上,我们接触了各种各样的联系,包括图同构、等变函数、局部算法和动态规划。

https://www.youtube.com/watch?v=W4-K9-wZkVA

Stefanie Jegelka是麻省理工学院EECS系X-Window联盟职业发展副教授,也是计算机科学和人工智能实验室(CSAIL)的成员。在加入麻省理工学院之前,她是加州大学伯克利分校的博士后研究员,并在苏黎世联邦理工学院和马克斯普朗克智能系统研究所获得博士学位。Stefanie曾获得斯隆研究奖学金、国家科学基金会职业奖、DARPA青年教师奖、德国模式识别奖和ICML最佳论文奖。她的研究兴趣横跨算法机器学习的理论和实践,包括离散和连续优化,离散概率和结构化数据学习。

成为VIP会员查看完整内容
29

相关内容

图神经网络 (GNN) 是一种连接模型,它通过图的节点之间的消息传递来捕捉图的依赖关系。与标准神经网络不同的是,图神经网络保留了一种状态,可以表示来自其邻域的具有任意深度的信息。近年来,图神经网络(GNN)在社交网络、知识图、推荐系统、问答系统甚至生命科学等各个领域得到了越来越广泛的应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【MIT-Stefanie Jegelka】图神经网络理论:表示与学习
专知会员服务
42+阅读 · 2022年5月21日
《机器学习的最优传输》教程,63页PPT
专知会员服务
61+阅读 · 2022年4月30日
MIT 图神经网络理论:表示与学习(论文+视频)
图与推荐
1+阅读 · 2022年5月23日
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年12月28日
Arxiv
0+阅读 · 2022年12月28日
Arxiv
28+阅读 · 2021年9月26日
Arxiv
24+阅读 · 2021年1月25日
VIP会员
相关基金
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员