图神经网络(GNNs)已经成为学习某些算法任务的流行工具。但是,它们的泛化性质不太好理解。在经验上,我们观察到任务结构(或目标算法)和架构的归纳偏差之间的相互作用:尽管许多网络可能能够代表一个任务,但一些架构比其他架构更好地学习它。在这次演讲中,我将展示一种形式化这种关系的方法,以及在训练分布内外推广的经验和理论含义。

成为VIP会员查看完整内容
24

相关内容

【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
63+阅读 · 2020年8月19日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
43+阅读 · 2020年6月23日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
173+阅读 · 2020年3月10日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
51+阅读 · 2020年2月19日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
A Comprehensive Survey on Graph Neural Networks
Arxiv
13+阅读 · 2019年3月10日
VIP会员
相关主题
相关VIP内容
【KDD2020-UCLA-微软】GPT-GNN:图神经网络的预训练
专知会员服务
63+阅读 · 2020年8月19日
【MIT-ICML2020】图神经网络的泛化与表示的局限
专知会员服务
43+阅读 · 2020年6月23日
图神经网络表达能力的研究综述,41页pdf
专知会员服务
173+阅读 · 2020年3月10日
麻省理工学院MIT-ICLR2020《神经网络能推断出什么?》
专知会员服务
51+阅读 · 2020年2月19日
相关论文
微信扫码咨询专知VIP会员