Recently, there are active studies to extend the concept of convolutional neural networks(CNNs) to non-Euclidean space. In particular, there have been a study on how to implement CNNs for data in non-Euclidean space that are invariant under a certain transformation. During this process, the concept of symmetry came in and convolution was described as a covariant form that the physics theory should be satisfied with after considering gauge symmetry. However, just because the convoultion expressed in covariant form is obtained, it is not obvious to implement the algorithm corresponding to that expression. Here, the universal approximation theorem tells us that any function can be approximated to a feed-forward networks. Therefore, the already known mathematical expression of covariant CNNs can be implemented through feed-forward neural networks. In this point of view, we demonstrate to learning process of cellular automata(CA) that could satisfy locality,time-reversibility and the certain holographic principle through conventional CNNs. With simple rules that satisfy the above three conditions and an arbitrary dataset that satisfies those rules, CNNs architecture that can learn rules were proposed and it was confirmed that accurate inferences were made for simple examples.


翻译:最近,一些积极研究将进化神经网络(CNNs)的概念扩展到非欧洲的宇宙空间,特别是研究如何在某种变异下对非欧洲空间的数据实施CNN。在这一过程中,对称概念进入,对流被描述为物理理论在考虑测量对称后应当满足的一种共变形式。然而,仅仅因为获得了以共变形式表示的共振,实施与该表达方式对应的算法并不明显。这里,普遍近似理论告诉我们,任何功能都可以近似于在某种变异中处于非欧洲空间的数据。因此,已知的CNN的数学表达方式可以通过进化-向神经网络实施。在这种观点中,我们通过常规CNN学习能够满足地点、时间反向和某些传感原则的手机自动数据学过程,只要简单的规则能够满足以上三个条件,而且简单的数据结构可以证实,在CNN规则中,这些规则可以被证实为直截了。

0
下载
关闭预览

相关内容

迄今为止,产品设计师最友好的交互动画软件。

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年5月26日
Arxiv
0+阅读 · 2021年5月26日
Arxiv
0+阅读 · 2021年5月26日
Arxiv
49+阅读 · 2021年5月9日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
60+阅读 · 2020年3月19日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员