Equivariance has emerged as a desirable property of representations of objects subject to identity-preserving transformations that constitute a group, such as translations and rotations. However, the expressivity of a representation constrained by group equivariance is still not fully understood. We address this gap by providing a generalization of Cover's Function Counting Theorem that quantifies the number of linearly separable and group-invariant binary dichotomies that can be assigned to equivariant representations of objects. We find that the fraction of separable dichotomies is determined by the dimension of the space that is fixed by the group action. We show how this relation extends to operations such as convolutions, element-wise nonlinearities, and global and local pooling. While other operations do not change the fraction of separable dichotomies, local pooling decreases the fraction, despite being a highly nonlinear operation. Finally, we test our theory on intermediate representations of randomly initialized and fully trained convolutional neural networks and find perfect agreement.


翻译:受身份保留变化影响的物体构成一个群体,例如翻译和旋转,其表达形式已作为一种可取的属性出现。然而,由于群体差异而受群体差异限制的表达形式仍不完全理解。我们通过对封面函数数的概括化理论来弥补这一差距,该理论将线性分解和组性异性二进制二进制数量量化,可分配给对象的对等表达方式。我们发现,分立二进制的分母部分是由群体行动所确定的空间的维度决定的。我们展示这种关系如何延伸到共变、元素非线性以及全球和本地集合等业务。虽然其他业务并不改变分解分解的分解分数,但局部集合会减少碎片,尽管其作用高度非线性。最后,我们检验我们关于随机初始化和经过充分训练的神经网络的中间表达方式的理论,并找到完全一致。

0
下载
关闭预览

相关内容

专知会员服务
77+阅读 · 2021年3月16日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
资源|斯坦福课程:深度学习理论!
全球人工智能
17+阅读 · 2017年11月9日
E(n) Equivariant Normalizing Flows
Arxiv
0+阅读 · 2021年12月23日
Equivariance and generalization in neural networks
Arxiv
0+阅读 · 2021年12月23日
Arxiv
8+阅读 · 2021年2月19日
Arxiv
3+阅读 · 2018年11月11日
VIP会员
相关VIP内容
专知会员服务
77+阅读 · 2021年3月16日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
31+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
相关资讯
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
资源|斯坦福课程:深度学习理论!
全球人工智能
17+阅读 · 2017年11月9日
Top
微信扫码咨询专知VIP会员