主题: Learning from Explanations with Neural Execution Tree 摘要: 虽然深度神经网络在一系列NLP任务上取得了令人印象深刻的性能,但这些数据饥渴的模型严重依赖于标记数据。为了充分利用每一个例子,之前的工作引入了自然语言(NL)解释,作为单纯标签的补充。这样的NL解释可以提供足够的领域知识,以便在新实例上生成更多的标记数据,而注释时间仅为原来的两倍。然而,直接应用NL解释来增强模型学习面临两个挑战。首先,NL解释是非结构化的,并且具有内在的组合性,这就需要一个模块化的模型来表示它们的语义。其次,自然语言解释往往有大量的语言变体,导致在应用于未标记数据时,召回率低,泛化能力有限。本文提出了一种新的神经执行树(NExT)框架,用NL解释扩充序列分类。首先,我们使用语义解析器将NL解释转换为可执行的逻辑形式。接下来,使用神经模块网络架构来概括不同类型的动作(由逻辑形式指定)来标记数据实例,并用软逻辑累积结果,这大大增加了每个NL解释的覆盖范围。通过对关系抽取和情感分析这两个NLP任务的实验,证明了利用NL解释方法比基线方法更优越。将其扩展到多跳问答系统中,只需少量的注释工作就可以获得较高的性能。另外,NExT在同一标注时间内比传统的仅标注的有监督模型取得了更好的性能。