A fundamental advantage of Petri net models is the possibility to automatically compute useful system invariants from the syntax of the net. Classical techniques used for this are place invariants, P-components, siphons or traps. Recently, Bozga et al. have presented a novel technique for the \emph{parameterized} verification of safety properties of systems with a ring or array architecture. They show that the statement \enquote{for every instance of the parameterized Petri net, all markings satisfying the linear invariants associated to all the P-components, siphons and traps of the instance are safe} can be encoded in \acs{WS1S} and checked using tools like MONA. However, while the technique certifies that this infinite set of linear invariants extracted from P-components, siphons or traps are strong enough to prove safety, it does not return an explanation of this fact understandable by humans. We present a CEGAR loop that constructs a \emph{finite} set of \emph{parameterized} P-components, siphons or traps, whose infinitely many instances are strong enough to prove safety. For this we design parameterization procedures for different architectures.


翻译:Petri 网模型的一个根本优势是, 有可能自动从网格的语法中计算出有用的系统变量。 用于此的经典技术是位置性、 P 组件、 吸附器或陷阱。 最近, Bozga 等人为使用环形或阵列结构的系统安全特性的 emph{ paraterizized} 提供了一种新颖的检验技术。 它们显示, 语句 \ enquote{ 例如参数化的 Petri 网, 所有符合与所有 P - 构件、 吸附器和实例陷阱相关的线性变量的标记都是安全的。 我们展示了一个CEGAR 循环, 可以在\ a emph{ finite} 中编码, 并使用像 MONA 这样的工具来检查 。 然而, 尽管该技术证明, 从 P- 构件、 吸附器或陷阱中提取的无限的线性变体特性足以证明安全性, 它不会让人类理解这一事实。 我们展示了一个CEGAR 循环, 构建一个元素/ imfinitetrimetromastrations destrations destration stration stration asystrations masm squsy promastrutusm syalstrutes

0
下载
关闭预览

相关内容

专知会员服务
79+阅读 · 2021年5月4日
专知会员服务
86+阅读 · 2020年8月2日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
计算机类 | PLDI 2020等国际会议信息6条
Call4Papers
3+阅读 · 2019年7月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
PRL导读-2018年120卷15期
中科院物理所
4+阅读 · 2018年4月23日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
0+阅读 · 2021年5月12日
Arxiv
0+阅读 · 2021年5月7日
VIP会员
相关资讯
计算机类 | PLDI 2020等国际会议信息6条
Call4Papers
3+阅读 · 2019年7月8日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
PRL导读-2018年120卷15期
中科院物理所
4+阅读 · 2018年4月23日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
分布式TensorFlow入门指南
机器学习研究会
4+阅读 · 2017年11月28日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员