Verified controller synthesis uses world models that comprise all potential behaviours of humans, robots, further equipment, and the controller to be synthesised. A world model enables quantitative risk assessment, for example, by stochastic model checking. Such a model describes a range of controller behaviours some of which -- when implemented correctly -- guarantee that the overall risk in the actual world is acceptable, provided that the stochastic assumptions have been made to the safe side. Synthesis then selects an acceptable-risk controller behaviour. However, because of crossing abstraction, formalism, and tool boundaries, verified synthesis for robots and autonomous systems has to be accompanied by rigorous testing. In general, standards and regulations for safety-critical systems require testing as a key element to obtain certification credit before entry into service. This work-in-progress paper presents an approach to the complete testing of synthesised supervisory controllers that enforce safety properties in domains such as human-robot collaboration and autonomous driving. Controller code is generated from the selected controller behaviour. The code generator, however, is hard, if not infeasible, to verify in a formal and comprehensive way. Instead, utilising testing, an abstract test reference is generated, a symbolic finite state machine with simpler semantics than code semantics. From this reference, a complete test suite is derived and applied to demonstrate the observational equivalence between the synthesised abstract test reference and the generated concrete controller code running on a control system platform.


翻译:验证控制者合成使用包含人类、机器人、进一步设备和控制者所有潜在行为的世界模型。世界模型允许进行定量风险评估,例如,通过随机模式检查。这种模型描述一系列控制者行为,其中某些行为如果得到正确实施,保证实际世界的总体风险是可以接受的,前提是对安全方面作出随机假设;然后合成选择一种可接受的风险控制者行为。然而,由于跨越抽象、形式主义和工具界限,机器人和自主系统的核查合成必须伴有严格的测试。一般来说,安全临界系统的标准和条例需要测试,作为在进入服务之前获得认证信用的一个关键要素。这一进展中的文件提出了一个方法,用于全面测试综合监督控制者,以在人类机器人合作和自主驱动等领域实施安全特性。控制者代码是从选定的控制者行为中生成的。然而,由于跨越抽象、正规和综合的系统,代码的生成者很难进行正式和综合的验证。相反,从精确的测试测试测试中,将一个测试模型的测试系统与系统生成的系统等同级之间,将演示一个测试系统,将测试一个Simal等等同的测试参考系统,然后将测试一个测试一个测试系统,然后将测试一个测试一个测试一个测试系统,然后将测试一个测试一个测试一个测试系统,将测试一个测试系统,然后将测试一个测试一个测试一个测试一个测试系统,将测试一个测试一个测试一个测试系统,将测试一个测试一个测试一个测试一个测试一个测试系统,然后将测试一个测试一个测试一个测试一个测试一个系统,在系统,将测试一个测试一个测试一个测试一个测试一个测试一个测试系统的系统,然后将进行。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
3+阅读 · 2019年4月19日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月20日
Arxiv
0+阅读 · 2021年12月19日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
3+阅读 · 2019年4月19日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
视觉机械臂 visual-pushing-grasping
CreateAMind
3+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员