Intent classification and slot filling are two core tasks in natural language understanding (NLU). The interaction nature of the two tasks makes the joint models often outperform the single designs. One of the promising solutions, called BERT (Bidirectional Encoder Representations from Transformers), achieves the joint optimization of the two tasks. BERT adopts the wordpiece to tokenize each input token into multiple sub-tokens, which causes a mismatch between the tokens and the labels lengths. Previous methods utilize the hidden states corresponding to the first sub-token as input to the classifier, which limits performance improvement since some hidden semantic informations is discarded in the fine-tune process. To address this issue, we propose a novel joint model based on BERT, which explicitly models the multiple sub-tokens features after wordpiece tokenization, thereby generating the context features that contribute to slot filling. Specifically, we encode the hidden states corresponding to multiple sub-tokens into a context vector via the attention mechanism. Then, we feed each context vector into the slot filling encoder, which preserves the integrity of the sentence. Experimental results demonstrate that our proposed model achieves significant improvement on intent classification accuracy, slot filling F1, and sentence-level semantic frame accuracy on two public benchmark datasets. The F1 score of the slot filling in particular has been improved from 96.1 to 98.2 (2.1% absolute) on the ATIS dataset.
翻译:自然语言理解( NLU) 目的分类和空档填充是自然语言理解( NLU) 的两个核心任务。 这两项任务的互动性质使得联合模型往往优于单一设计。 一个叫BERT(来自变换器的双向编码显示器)的有希望的解决方案之一, 实现了对两个任务的联合优化。 BERT采用单词将每个输入符号符号符号化为多个子点, 从而导致代号与标签长度之间的不匹配。 先前的方法使用与第一个子点相对应的隐藏状态, 作为对分类器的投入, 这限制了性能改进, 因为某些隐藏的语义信息在微调过程中被丢弃。 为了解决这个问题, 我们提议了一个基于BERT的新颖的联合模型, 明确将多个子点符号建为多个子点, 从而产生有助于补缺点的背景特征。 具体地说, 我们通过关注机制将隐藏的多个子点对应的状态编码成上一个上下文矢量矢量。 然后, 我们把每个上下文矢量输入到位填充器中, 以保存某位的精确度 98 标准 。 在 F 标准 上, 级 1 上, 实验结果 将 将我们的拟议数据级 将 将 级 改进为 的 级 的 级 级 改进为 F 的 的 级 级 级 级 级 级 级 级 的 级 级 级 级 级 级 的 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级 级