图神经网络(GNNs)已经成为学习某些算法任务的流行工具。但是,它们的泛化性质不太好理解。在经验上,我们观察到任务结构(或目标算法)和架构的归纳偏差之间的相互作用:尽管许多网络可能能够代表一个任务,但一些架构比其他架构更好地学习它。在这次演讲中,我将展示一种形式化这种关系的方法,以及在训练分布内外推广的经验和理论含义。