图神经网络(GNNs)已经成为学习某些算法任务的流行工具。但是,它们的泛化性质不太好理解。在经验上,我们观察到任务结构(或目标算法)和架构的归纳偏差之间的相互作用:尽管许多网络可能能够代表一个任务,但一些架构比其他架构更好地学习它。在这次演讲中,我将展示一种形式化这种关系的方法,以及在训练分布内外推广的经验和理论含义。

成为VIP会员查看完整内容
23

相关内容

最新《图神经网络实用指南》2020论文,28页pdf
专知会员服务
220+阅读 · 2020年10月17日
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
61+阅读 · 2020年8月19日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
41+阅读 · 2020年6月23日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
168+阅读 · 2020年3月10日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
50+阅读 · 2020年2月19日
图神经网络(Graph Neural Networks,GNN)综述
极市平台
103+阅读 · 2019年11月27日
ICML2019《元学习》教程与必读论文列表
专知
41+阅读 · 2019年6月16日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
12+阅读 · 2019年3月14日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Deep Graph Infomax
Arxiv
16+阅读 · 2018年12月21日
VIP会员
相关主题
相关VIP内容
相关论文
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
12+阅读 · 2019年3月14日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
Deep Graph Infomax
Arxiv
16+阅读 · 2018年12月21日
微信扫码咨询专知VIP会员