Finite linear temporal logic ($\mathsf{LTL}_f$) is a powerful formal representation for modeling temporal sequences. We address the problem of learning a compact $\mathsf{LTL}_f$ formula from labeled traces of system behavior. We propose a novel neural network operator and evaluate the resulting architecture, Neural$\mathsf{LTL}_f$. Our approach includes a specialized recurrent filter, designed to subsume $\mathsf{LTL}_f$ temporal operators, to learn a highly accurate classifier for traces. Then, it discretizes the activations and extracts the truth table represented by the learned weights. This truth table is converted to symbolic form and returned as the learned formula. Experiments on randomly generated $\mathsf{LTL}_f$ formulas show Neural$\mathsf{LTL}_f$ scales to larger formula sizes than existing approaches and maintains high accuracy even in the presence of noise.
翻译:线性线性时间逻辑 (\ mathsf{ LTL ⁇ f$) 是模拟时间序列的强大正式代表。 我们从系统行为标记痕迹中学习一个 $\ mathsf{ LTL ⁇ f$ 公式的问题。 我们建议一个新的神经网络操作员, 并评估由此形成的结构, 神经元$\ mathsf{ LT ⁇ f$。 我们的方法包括一个专门的经常性过滤器, 旨在将 $\ mathsf{ LTL ⁇ ff$ 时间操作员进行分解, 以学习一个非常精确的分类器进行跟踪。 然后, 它将激活分离, 并提取以学习过重表示的真象表 。 此真象表被转换为符号形式, 并作为学习过的公式返回 。 随机生成 $\ mathf{ LTL ⁇ f$ 公式的实验显示 Neural$\ mathf{ LTL ⁇ f$ 。 我们的方法包括一个专门的常规过滤器, 以比现有方法大得多的公式大小, 并保持很高的精度 。