A modular proof-theoretic framework was recently developed to prove Craig interpolation for normal modal logics based on generalizations of sequent calculi (e.g., nested sequents, hypersequents, and labelled sequents). In this paper, we turn to uniform interpolation, which is stronger than Craig interpolation. We develop a constructive method for proving uniform interpolation via nested sequents and apply it to reprove the uniform interpolation property for normal modal logics $\mathsf{K}$, $\mathsf{D}$, and $\mathsf{T}$. We then use the know-how developed for nested sequents to apply the same method to hypersequents and obtain the first direct proof of uniform interpolation for $\mathsf{S5}$ via a cut-free sequent-like calculus. While our method is proof-theoretic, the definition of uniform interpolation for nested sequents and hypersequents also uses semantic notions, including bisimulation modulo an atomic proposition.


翻译:最近开发了一个模块校验理论框架,以证明Craig 用于基于序列计算(例如,嵌入序列序列、超序列和标签序列)的普通模式逻辑(例如,嵌入序列序列、超序列和标注序列)的正常模式逻辑的内插。 在本文件中,我们转向统一的内插,这比Craig内插更强。我们开发了一种建设性的方法,通过嵌入序列证明统一的内插,并将其应用于对普通模式逻辑($\mathsfsf{K}$、$\mathsf{D}$和$\mathsfsf{T}$等)的统一内插属性进行再分析。我们随后使用为嵌入序列开发的专门知识,对超序列应用同一方法,通过切开的序列序列序列式计算法来获得美元($\mathsf{S5}美元)统一内插的第一个直接证据。虽然我们的方法是证据-理论性,但我们用于嵌入式序列和高位数模型的一致间插图定义,包括双数模型。

0
下载
关闭预览

相关内容

ECCV 2020 五项大奖出炉!普林斯顿邓嘉获最佳论文奖
专知会员服务
14+阅读 · 2020年8月25日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
80+阅读 · 2020年7月26日
专知会员服务
63+阅读 · 2020年3月4日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
105+阅读 · 2019年10月9日
已删除
AI掘金志
7+阅读 · 2019年7月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
0+阅读 · 2021年7月12日
Arxiv
22+阅读 · 2018年2月14日
VIP会员
相关资讯
已删除
AI掘金志
7+阅读 · 2019年7月8日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
18+阅读 · 2019年1月7日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
[DLdigest-8] 每日一道算法
深度学习每日摘要
4+阅读 · 2017年11月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
Top
微信扫码咨询专知VIP会员