Recently, there has been significant research on the connection between physics theory and machine learning. As a way to approach physics theory from machine learning, there has been a study on the universe that learns its own laws based on the fact that quantum field theory and learning system are expressed as a matrix model in much the same way. In the opposite position, certain familiar symmetries have been required for conventional convolutional neural networks (CNNs) for performance improvement, and as a result, CNNs have come to be expressed in a covariant form that physics theory must satisfy. These positive signals can be a driving force for studying physics theory using machine learning, but in reality, there are several difficulties in implementing a working system. First of all, just because the convolution can be expressed in covariant form, it is not obvious to implement the algorithm corresponding to that expression. At the beginning of this paper, we show that it is possible to reach covariant CNNs through the proposed method without implementing the specific algorithm. However, the more serious problem is that there is still insufficient discussion on how to collect a well-defined data set corresponding to the law to be learned. Therefore, in the current situation, it would be best to simplify the problem to satisfy some physical requirements and then see if it is possible to learn with the corresponding neural-networks architecture. In this point of view, we demonstrate to learning process of cellular automata (CA) that could satisfy locality, time-reversibility through CNNs. With simple rules that satisfy the above two conditions and an arbitrary dataset that satisfies those rules, CNNs architecture that can learn rules were proposed and it was confirmed that accurate inference, that is, an approximation of the equation was made for simple examples.


翻译:最近,对物理学理论和机器学习之间的联系进行了大量研究。作为从机器学习中研究物理学理论的一种方法,对宇宙进行了一项研究,根据量子场理论和学习系统以基本模型模式以同样的方式表达为矩阵模型这一事实,对宇宙进行了自己的法律学习。相反,常规的神经神经心网络(CNNs)需要某些熟悉的对称来改进性能,结果,CNN以物理理论必须满足的共性形式来表达。这些积极信号可以成为利用机器学习研究物理理论的动力,但在现实中,实施工作系统存在一些困难。首先,由于变异理论和学习以基本模型模式表达的矩阵模式,因此,执行与该表达方式相对应的算法并不明显。在本文开头,我们表明有可能通过拟议的方法到达混杂的CNN,而没有采用具体的算法。然而,更严重的问题是,对于如何收集精确的、精确的、与法律相对应的定值的数据,如果能够学习到当前的内部结构。因此,在内部规则中可以学习一个最精确的、最精确的顺序。

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
MATLAB玩转深度学习?新书「MATLAB Deep Learning」162页pdf
专知会员服务
99+阅读 · 2020年1月13日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
Arxiv
65+阅读 · 2021年6月18日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
4+阅读 · 2018年12月3日
Arxiv
19+阅读 · 2018年10月25日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
Arxiv
16+阅读 · 2018年2月7日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
利用动态深度学习预测金融时间序列基于Python
量化投资与机器学习
18+阅读 · 2018年10月30日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
相关论文
Arxiv
65+阅读 · 2021年6月18日
Arxiv
32+阅读 · 2021年3月8日
Arxiv
14+阅读 · 2020年12月17日
Arxiv
4+阅读 · 2018年12月3日
Arxiv
19+阅读 · 2018年10月25日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
Arxiv
16+阅读 · 2018年2月7日
Top
微信扫码咨询专知VIP会员