We formalise the undecidability of solvability of Diophantine equations, i.e. polynomial equations over natural numbers, in Coq's constructive type theory. To do so, we give the first full mechanisation of the Davis-Putnam-Robinson-Matiyasevich theorem, stating that every recursively enumerable problem -- in our case by a Minsky machine -- is Diophantine. We obtain an elegant and comprehensible proof by using a synthetic approach to computability and by introducing Conway's FRACTRAN language as intermediate layer. Additionally, we prove the reverse direction and show that every Diophantine relation is recognisable by $\mu$-recursive functions and give a certified compiler from $\mu$-recursive functions to Minsky machines.


翻译:我们按照Coq的建设性类型理论,将diophanantine 等式(即相对于自然数字的多式方程式)的可溶性正式确定为不可溶性。 为此,我们首次将Davis-Putnam-Robinson-Matiyasevich 理论完全机械化,指出每一个可反复出现的问题 -- -- 就我们而言,由明斯克机器 -- -- 都属于Diophantine。我们通过使用合成方法来兼容性并采用Conway的FRACTRAN语言作为中间层,获得了优雅和易懂的证据。此外,我们证明了反向方向,并表明每一种diophanine关系都可以被 $-mu$-recurective 函数识别,并向明斯克机器提供由$\mu$-recurive函数组成的经认证的编译器。

0
下载
关闭预览

相关内容

专知会员服务
43+阅读 · 2021年3月8日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【CMU】机器学习导论课程(Introduction to Machine Learning)
专知会员服务
59+阅读 · 2019年8月26日
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
将门创投
14+阅读 · 2019年5月29日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Arxiv
0+阅读 · 2021年7月20日
Arxiv
0+阅读 · 2021年7月19日
Arxiv
0+阅读 · 2021年7月18日
Arxiv
0+阅读 · 2021年7月16日
Arxiv
0+阅读 · 2021年7月16日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
VIP会员
相关资讯
使用BERT做文本摘要
专知
23+阅读 · 2019年12月7日
意识是一种数学模式
CreateAMind
3+阅读 · 2019年6月24日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
已删除
将门创投
14+阅读 · 2019年5月29日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
相关论文
Arxiv
0+阅读 · 2021年7月20日
Arxiv
0+阅读 · 2021年7月19日
Arxiv
0+阅读 · 2021年7月18日
Arxiv
0+阅读 · 2021年7月16日
Arxiv
0+阅读 · 2021年7月16日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Top
微信扫码咨询专知VIP会员