Finite linear temporal logic ($\mathsf{LTL}_f$) is a powerful formal representation for modeling temporal sequences. We address the problem of learning a compact $\mathsf{LTL}_f$ formula from labeled traces of system behavior. We propose a novel neural network operator and evaluate the resulting architecture, Neural$\mathsf{LTL}_f$. Our approach includes a specialized recurrent filter, designed to subsume $\mathsf{LTL}_f$ temporal operators, to learn a highly accurate classifier for traces. Then, it discretizes the activations and extracts the truth table represented by the learned weights. This truth table is converted to symbolic form and returned as the learned formula. Experiments on randomly generated $\mathsf{LTL}_f$ formulas show Neural$\mathsf{LTL}_f$ scales to larger formula sizes than existing approaches and maintains high accuracy even in the presence of noise.


翻译:线性线性时间逻辑 (\ mathsf{ LTL ⁇ f$) 是模拟时间序列的强大正式代表。 我们从系统行为标记痕迹中学习一个 $\ mathsf{ LTL ⁇ f$ 公式的问题。 我们建议一个新的神经网络操作员, 并评估由此形成的结构, 神经元$\ mathsf{ LT ⁇ f$。 我们的方法包括一个专门的经常性过滤器, 旨在将 $\ mathsf{ LTL ⁇ ff$ 时间操作员进行分解, 以学习一个非常精确的分类器进行跟踪。 然后, 它将激活分离, 并提取以学习过重表示的真象表 。 此真象表被转换为符号形式, 并作为学习过的公式返回 。 随机生成 $\ mathf{ LTL ⁇ f$ 公式的实验显示 Neural$\ mathf{ LTL ⁇ f$ 。 我们的方法包括一个专门的常规过滤器, 以比现有方法大得多的公式大小, 并保持很高的精度 。

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2020年12月14日
专知会员服务
54+阅读 · 2020年10月11日
专知会员服务
116+阅读 · 2019年12月24日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
已删除
将门创投
7+阅读 · 2019年10月15日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2022年1月9日
Arxiv
0+阅读 · 2022年1月4日
Arxiv
0+阅读 · 2022年1月4日
Neural Arithmetic Logic Units
Arxiv
5+阅读 · 2018年8月1日
Arxiv
5+阅读 · 2018年4月22日
VIP会员
相关资讯
已删除
将门创投
7+阅读 · 2019年10月15日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员