We investigate predicative aspects of constructive univalent foundations. By predicative and constructive, we respectively mean that we do not assume Voevodsky's propositional resizing axioms or excluded middle. Our work complements existing work on predicative mathematics by exploring what cannot be done predicatively in univalent foundations. Our first main result is that nontrivial (directed or bounded) complete posets are necessarily large. That is, if such a nontrivial poset is small, then weak propositional resizing holds. It is possible to derive full propositional resizing if we strengthen nontriviality to positivity. The distinction between nontriviality and positivity is analogous to the distinction between nonemptiness and inhabitedness. Moreover, we prove that locally small, nontrivial (directed or bounded) complete posets necessarily lack decidable equality. We prove our results for a general class of posets, which includes directed complete posets, bounded complete posets and sup-lattices. Secondly, we show that each of Zorn's lemma, Tarski's greatest fixed point theorem and Pataraia's lemma implies propositional resizing. Hence, these principles are inherently impredicative and a predicative development of order theory must therefore do without them. Thirdly, we clarify, in our predicative setting, the relation between the traditional definition of sup-lattice that requires suprema for all subsets and our definition that asks for suprema of all small families. Finally, we investigate the inter-definability and interaction of type universes of propositional truncations and set quotients in the absence of propositional resizing axioms.


翻译:我们调查了建设性非虚拟基础的预言性方面。 通过预言性和建设性, 我们分别意味着, 我们不假定沃沃沃德斯基的主张重现正态或被排除的中间点。 我们的工作补充了目前关于预言性数学的工作, 探索了无法在非虚拟基础中进行预言性的工作。 我们的第一个主要结果是, 非初始( 定向或约束的) 完整的表面必须大得多。 也就是说, 如果这种非初始的摆势很小, 那么虚构的重现性就站不住住脚。 如果我们加强非初始性对正态的变现性, 就可能得出完全的假设性重现。 我们的无边性与假设性之间的区别与非理论性之间的区别是相似的。 此外, 我们还证明, 本地的、 非初始性( 定向或约束的) 完整的摆势之前必然缺乏平等性。 我们证明我们对于一个普通的摆势类别的结果, 包括完全的摆动性、 约束性的摆动式和摆动性的摆动性。 其次, 我们显示, 每一个正态的定式的内位性原则都意味着着最保守的内定。

0
下载
关闭预览

相关内容

专知会员服务
81+阅读 · 2021年7月31日
专知会员服务
76+阅读 · 2021年3月16日
【实用书】数据科学基础,484页pdf,Foundations of Data Science
专知会员服务
118+阅读 · 2020年5月28日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【推荐】SLAM相关资源大列表
机器学习研究会
10+阅读 · 2017年8月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
GFlowNet Foundations
Arxiv
9+阅读 · 2021年11月17日
Arxiv
65+阅读 · 2021年6月18日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
5+阅读 · 2015年9月14日
VIP会员
相关VIP内容
专知会员服务
81+阅读 · 2021年7月31日
专知会员服务
76+阅读 · 2021年3月16日
【实用书】数据科学基础,484页pdf,Foundations of Data Science
专知会员服务
118+阅读 · 2020年5月28日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【新书】Python编程基础,669页pdf
专知会员服务
194+阅读 · 2019年10月10日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
39+阅读 · 2019年10月9日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
【推荐】SLAM相关资源大列表
机器学习研究会
10+阅读 · 2017年8月18日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
GFlowNet Foundations
Arxiv
9+阅读 · 2021年11月17日
Arxiv
65+阅读 · 2021年6月18日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Learning in the Frequency Domain
Arxiv
11+阅读 · 2020年3月12日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
The Evolved Transformer
Arxiv
5+阅读 · 2019年1月30日
Arxiv
5+阅读 · 2015年9月14日
Top
微信扫码咨询专知VIP会员