Machine reading comprehension has aroused wide concerns, since it explores the potential of model for text understanding. To further equip the machine with the reasoning capability, the challenging task of logical reasoning is proposed. Previous works on logical reasoning have proposed some strategies to extract the logical units from different aspects. However, there still remains a challenge to model the long distance dependency among the logical units. Also, it is demanding to uncover the logical structures of the text and further fuse the discrete logic to the continuous text embedding. To tackle the above issues, we propose an end-to-end model Logiformer which utilizes a two-branch graph transformer network for logical reasoning of text. Firstly, we introduce different extraction strategies to split the text into two sets of logical units, and construct the logical graph and the syntax graph respectively. The logical graph models the causal relations for the logical branch while the syntax graph captures the co-occurrence relations for the syntax branch. Secondly, to model the long distance dependency, the node sequence from each graph is fed into the fully connected graph transformer structures. The two adjacent matrices are viewed as the attention biases for the graph transformer layers, which map the discrete logical structures to the continuous text embedding space. Thirdly, a dynamic gate mechanism and a question-aware self-attention module are introduced before the answer prediction to update the features. The reasoning process provides the interpretability by employing the logical units, which are consistent with human cognition. The experimental results show the superiority of our model, which outperforms the state-of-the-art single model on two logical reasoning benchmarks.
翻译:机器阅读理解引起了广泛的关注, 因为它探索了文本理解模型的潜力。 为了进一步使机器具备推理能力, 提出了逻辑推理的艰巨任务 。 以往的逻辑推理工作提出了从不同方面提取逻辑单位的一些战略 。 但是, 仍然有一个挑战, 要建模逻辑单位之间的长距离依赖性。 另外, 它要求找出文本的逻辑结构, 并将离散逻辑与连续嵌入的文本进一步融合起来 。 为了解决上述问题, 我们提议了一个端到端的模型逻辑前导, 利用两处图形变异器网络进行逻辑推理。 首先, 我们引入了不同的提取战略, 将文本分成成两组逻辑单位, 并分别构建逻辑图和合成图图。 逻辑图图显示逻辑分支的因果关系, 同时捕捉到同源的关系。 其次, 模型的距离依赖度, 每图的节点序列被反馈到完全连接的图形变异结构中。 两种相邻的矩阵被看成是逻辑的注意偏向导偏向,, 将逻辑推导的逻辑推导结构, 向 向动态 方向 方向, 方向 方向 向 方向 方向 方向, 向 方向 方向 向 方向 方向 方向 方向 向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 向 方向 方向 方向 方向 方向 方向 方向 方向 方向 向 方向 方向 方向 方向 向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 向 向 方向 方向 方向 方向 方向 向 向 向 向 向 向 向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 向 方向 方向 方向 方向 方向 方向 向 向 方向 方向 向 向 方向 方向 向 向 方向 方向 向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 方向 向 方向 方向 向 方向 方向 方向 方向 方向 方向 方向 方向 方向