ACL杰出论文+NAACL最佳论文,腾讯AI Lab解读两项NLP成果

2021 年 8 月 5 日 腾讯AI实验室

感谢阅读腾讯AI Lab微信号第128篇文章。本文将解读腾讯AI Lab两项NLP学术成果:一篇ACL 2021杰出论文,一篇NAACL 2021最佳长文。同时简单介绍被ACL 2021接收的其他论文。


自然语言处理(NLP)领域顶级会议 ACL 2021 于 8 月 2 日至 5 日在线上举行。本届ACL共收到3350篇论文投稿,其中主会论文录用率为21.3%。据不完全统计,腾讯共入选 50 多篇论文,其中腾讯 AI Lab 贡献 27 篇(含9篇findings),包括大会的六篇杰出论文之一,与香港中文大学合作完成的《基于单语翻译记忆的神经网络机器翻译技术(Neural Machine Translation with Monolingual Translation Memory)》。


无独有偶,在今年6月线上举办的另一自然语言处理领域顶会 NAACL 2021 中,腾讯 AI Lab 与罗切斯特大学合作的论文《视频辅助无监督语法归纳(Video-aided Unsupervised Grammar Induction)》获得最佳长论文


本文将对腾讯 AI Lab 主导的这两篇论文进行详细解读,并简要介绍部分入选 ACL 2021 的其他论文,包括文本生成与智能对话、翻译、文本理解等研究方向。


自然语言处理是腾讯 AI Lab 四大基础研究方向之一,主要包括文本理解、文本生成、机器翻译等研究方向,相关研究成果持续通过学术论文、开源数据集、工具及 API 服务等方式对外分享:


● 国内首个线上公开落地的交互翻译系统 TranSmart:提供辅助翻译输入法、约束解码、翻译记忆融合等亮点功能,已支持了包括联合国文件署、Memsource、华泰证券、店小秘、阅文集团等在内的B端客户,以及腾讯内部众多的翻译业务。

● 文本理解系统 TexSmart:与国内外的同类系统相比,不仅在在效果和速度上位居前列,更具有细粒度命名实体识别、语义联想、深度语义表达等特色功能。其API和SDK被腾讯内外众多业务和用户所调用。

● 包含800万词汇的中文词向量开源数据集受到业界的广泛关注、讨论和使用,在多项应用得到性能提升。



ACL 2021杰出论文:

基于单语翻译记忆的神经网络机器翻译技术




论文地址:https://arxiv.org/pdf/2105.11269.pdf


从2017年开始,包括微软、Facebook、腾讯在内的多支研究团队均致力于尝试利用检索式对话系统的结果引导生成式模型,以生成更加相关且更为丰富的对话回复。无独有偶,在机器翻译领域,来自CMU、NYU、腾讯的多个团队也一直在推进利用翻译记忆 (Translation Memory)提升翻译效果的研究工作。无论是对话还是翻译领域,之前他们的工作均集中在利用输入端相似度的检索方式从平行语料中检索数据,并以某种方式输入到深度生成网络来提升生成/翻译效果(如下图所示)。



不同于上述工作,在本论文中,作者提出了一种全新的基于单语翻译记忆的翻译框架——训练过程中利用一个双塔结构(dual-encoder framework)的检索模型将源端句子和目标端句子在向量空间对齐,而推理过程中与源端句子在向量空间中距离最近的k条目标端句子,则会被选中作为翻译记忆。需要注意的是,该模型的检索范围并不限定在训练集的句子中,而可以来自任意的单语语料。随后,为了将检索模型与下游翻译模型统一为一个可以端到端训练的整体,检索模型输出的相似度分值将引导翻译模型的注意力(attention)集中到更为有用的检索结果上。基于这样的方式,检索模型可以通过如下逻辑被优化:对最终翻译过程有帮助(能提升参考译文似然度)的检索结果应该被奖励,而那些无用的检索结果则应被惩罚。


实验结果表明,本论文提出的模型即使不使用额外单语数据,翻译效果都要超出目前最好的,而在低资源场景下,一旦模型获得了更多额外的单语语料,模型的翻译效果会大幅度提升。最后,该模型只需对翻译记忆进行热切换就可以实现领域自适应,而不需要对模型进行任何微调。


一、模型设计



本论文提出的方法将整个翻译过程分为检索和生成两步。如图一所示,该方法中翻译记忆库是一堆目标语言句子的集合 。在翻译过程中,对于输入 ,检索模型(Retrieval Model)根据相关度函数 从翻译记忆库中找到 个可能对翻译有帮助的句子 ,其中 。然后翻译模型根据条件概率生成翻译结果。在训练过程中,最大化参考译文的似然度能够同时优化检索模型和翻译模型的参数。(本部分省略了部分细节,有关模型的更多详情与数学描述请参阅原论文)


● 检索模型

本论文采取了双塔框架模型进行检索,该框架的优点在于能将搜索问题转化为最大内积搜索(Maximum Inner Product Search)。源端句子和目标端句子的相似度可以通过对应的向量表示的点积得到:

其中 分别是源端句子编码器和目标端句子编码器,用两个独立的Transformer实现。在推理时,翻译记忆库中所有句子的向量表示可以用目标端句子编码器提前计算得到,并用FAISS搭建索引。


● 翻译模型

在翻译过程中,本论文为标准翻译框架(包括一个源端编码器和一个解码器)添加了一个额外的记忆编码器来输入翻译记忆。为了使检索模型和翻译模型能够一同被最终的翻译目标所优化,我们将检索模型得到的相关性分数加入到注意力中的计算中:

  (2)

其中 是第 条翻译记忆中第 个片段的的注意力分数, 而 是上文提到的相关性得分。简单来说,更有益于提升翻译质量的记忆片段应该收到更多的注意力,进而得到更大的相关性得分,直接优化翻译目标就可以优化检索模型。


● 跨语言对齐预训练任务

本论文提出的模型存在冷启动问题,因此作者提出了两种跨语言对齐预训练任务为检索模型热身。作者称这两个预训练任务在实践中缺一不可。


二、实验


本论文共进行了三种不同设置的实验:1)传统设置:所有模型都只能用训练集作为翻译记忆库,2)低资源设置:双语训练对数量较少,但模型可以使用额外的单语数据作为翻译记忆,3)利用单语数据实现翻译模型的非参数领域自适应。请注意已有的方法仅能直接适用于第一种设置,而2) 3)两种设置只能依赖本论文提出的模型才成为可能。



● 实验一:传统设置

本实验使用了翻译记忆的经典数据集JRC-Acquis,并挑选了西英,英西,德英,英德四个翻译方向进行实验。实验中,作者复现了三种经典的基线模型的实验结果,并实现了一系列模型的变种来验证模型不同模块对翻译性能的影响。上表中的Model 1-5分别表示: 


1. 没有使用翻译记忆的基本翻译模型 Transformer base。 

2. 使用双语翻译记忆的基本翻译模型。

3. 本论文提出的模型,但不进行端到端优化,训练时仅更新翻译模型不更新检索模型。

4 & 5:本论文提出的模型,区别在于异步更新策略 (因字数限制,该部分介绍被省略,详情请参阅原论文)


从实验结果可以看出,在所有任务上,本论文提出的完整模型均取得了最好效果,相对于不使用翻译记忆的基线模型(Model #1)平均提升了3.26 BLEU值。其中端到端训练是关键所在,Model #4 & 5,相对于没有进行端到端训练的Model 3都有超过1 BLEU值的性能提升。最令人惊奇的是,仅仅只使用单语翻译记忆的Model #4 和 #Model 5在性能上居然超过了使用双语翻译记忆的Model 2以及三种复现的基线模型。这可以归因于是端到端训练使跨语言检索模型能更好的适应下游的翻译任务。


● 实验二:低资源设置

如前文所说,本论文提出的模型最大优势在于能够将单语数据作为翻译记忆。为了证明单语翻译记忆的有效性,作者进行了低资源场景实验,实验中模型只能获得部分双语数据以及额外的单语数据作为翻译记忆。



本场景下仍然有两种不同的训练选择:1)切换翻译记忆时不重新训练翻译模型;以及 2)切换翻译记忆时重新训练翻译模型。在上图中,蓝色虚线代表选择1,而红色实线代表选择2。可以看到,翻译质量随着翻译记忆库规模的增大而显著提升。另一个有趣的现象是,即使使用选择1) 的方式训练,模型的性能也不会受到很大影响。



与Back-translation方法的对比:本论文也与back-translation (BT) 方法进行了对比。如上表所示,本论文提出的方法与BT方法各有所长,但令人惊喜的是,结果表明两种方法是互补的,他们的结合使翻译性能取得了进一步的巨大提升。



● 实验三:非参数领域自适应

本论文提出的模型的另一个独特优点是可以通过切换翻译记忆,不改变或增加参数即可以适用于特定领域。在最后一个实验中,作者通过切换翻译记忆,实现了翻译领域的自适应。上表中的实验结果表明,只使用双语翻译记忆时,基于翻译记忆的模型和不使用翻译记忆的模型效果各有千秋,但一旦增加了额外的单语翻译记忆,本论文提出的模型在五个领域上的平均BLEU值提升了1.87。


三、总结


本论文首次提出了利用单语翻译记忆提升翻译模型,并发现跨语言的检索模型可以通过端到端的方式进行优化。本论文提出的方法在低资源场景下取得了巨大的性能提升,并且可以实现一个模型适用于所有领域。


作者指出了两个未来可能的提升方向:1)为了保证公平,本研究中所用到的编码器均从随机参数开始训练,使用预训练语言模型将进一步提升翻译性能;2)增大翻译记忆的多样性有可能显著提升翻译性能,但本论文中的模型结构并未考虑这一点。


NAACL 最佳论文:

视频辅助无监督语法归纳




论文地址:https://arxiv.org/abs/2104.04369v2


长久以来,句法分析一直都是NLP研究的热点话题之一。很多现有的方法都是在有语法标注的数据集上学习。但是这种有监督的学习存在两个弱点:1. 标注这样的数据集需要大量的语言专家,费时费力。2. 只有几个常见语种有标注好的数据集,许多小语种甚至没有足够的语言专家来标数据。


因此,近些年来有越来越多的研究试图从海量未标注的文本中来进行无监督的句法学习。以C-PCFG[1]为例(见下图),给定一个句子,句法抽取器(Grammar Inducer)预测出一个句法图(Chart),并对句子的边缘似然函数进行优化。



除了以上的商业价值以外,无监督句法分析还有着重要的科学价值,长期以来认知科学(cognitive science)界一直争论着人类能习得语言的原因:是人脑中天生就存在某种机制,还是单纯靠统计学习(statistical learning)的方式,而无监督句法分析正是用来验证统计学习理论的重要手段之一。


过去的无监督句法分析的方法都是以纯文本为输入,而视觉中含有很多文本所不具备的知识,因此最近有一些方法[2,3]试图通过图片信息来辅助无监督句法分析。以VC-PCFG [3] 为例(见下图),它在C-PCFG的基础上额外增加了一个图片和句子之间的损失函数,通过图片特征对文本特征进行正则化,可进一步提高句法抽取器的性能。



但是这种方法的提升是有局限的。从VC-PCFG论文的实验部分可以看到,相较于C-PCFG,VC-PCFG主要提升的是NP的性能,而在其他常见的短语类型上的提升并不明显,如VP,PP,SBAR, ADJP和ADVP。这一现象也存在在另一篇文章VG-NSL [2] 中。一个可能的解释是这两篇文章用到的图片特征提取器是在物体分类上训练的,这种特征对于物体有比较准确的描述从而提升了NP。但对于涉及到物体的动作和变化的短语类型,如VP,因为图片是静态的,这种物体分类的特征并不不能提供这样的变化信息。但如果我们将静态图片换成动态视频,很有可能对涉及到动词的短语类型也会有所提升。


本文提出了Multi-Modal Compound PCFGs (MMC-PCFG)用于视频辅助的无监督句法分析 ,框架如下。与VC-PCFG [3]不同的是,本模型以视频作为输入,并融合了视频多种模态的信息,是VC-PCFG [3] 在视频上的泛化。



一、模型设计


对于每个视频我们首先在时间上等间隔抽取包括物体,动作,场景,声音,字符,人脸,语音在内的共M种特征。本文借鉴多模态transformer[4]来计算视频和文本片段之间的相似度。具体来说,我们首先把输入特征的连接在一起, 这里 的平均。

此外我们还使用特征类型编码

和位置编码

来区分不同视频特征的种类和时间顺序。然后将这三者的加和作为transformer的输入,并使用与各平均特征对应位置的输出作为视频特征的输出,记作


接下来我们计算视频 和某个句子 中某个片段 之间的相似度。这里用 表示该片段的特征。我们利用gated embedding module将 映射到 个不同的编码,记作 。然后视频和文中片段的相似度可以通过加权求和这 对视频和文中片段的cosine值得到,即。这里的权重 是将 输入到一个线性层通过softmax得到。


我们用hinge loss来计算视频 和某文本片段 的损失函数,即:

这里 分别表示的是其他句子的某个片段和其他视频的特征。视频 和句子 也相应地定义为所有片段的加权求和,这里的权重 通过句法图获得。


训练时,我们同时优化句子的边缘概率函数和句子视频的匹配函数。测试时,只需要输入文本,通过CKY算法即可推导出句法树。


二、实验


我们在三个数据集(DiDeMo, YouCook2, MSRVTT)上做了实验。因为这些数据集没有语法标注,我们用一个监督学习的方法[5]预测出来的结果当作reference tree。对于物体和动作特征,我们还用不同模型提取了多种不同的特征,包括物体(ResNeXt-101,SENet-154)和动作(I3D,R2P1D,S3DG)。每组实验都跑10个epoch并用不同的种子跑了4次。实验结果见表1。LBranch,RBranch和Random代表left branching tree, right branching tree 和random tree。


因为VC-PCFG是为图片设计的,不能直接以视频作为输入。为了对比VC-PCFG,我们设计了一些简单的baseline。第一种baseline是将单个特征在时间轴上取平均,作为VC-PCFG输入 (ResNeXt, SENet …, Speech)。另一个baseline是将这些取平均的特征连接在一起然后作为VC-PCFG的输入 (Concat)。


首先我们比较C-F1和S-F1这两个综合评指标。Right Branching性能很强主要因为英语很大程度上是right branching的。VC-PCFG整体上要比比C-PCFG效果要好,说明利用视频信息是有帮助的。简单的将所有特征连在一起并不能让效果变的更好,有时甚至还不如单个特征(比如Concat 和 R2P1D)。其主要原因是没有考虑特征直接的关系。而我们提出的MMC-PCFG在所有三个数据集中性能都达到了最好的结果,说明我们的模型可以有效利用所有特征的信息。


接下来我们比较这些方法在NP,VP 和PP三种常见短语类型的召回率。对比在单个特征训练的VC-PCFG,使用物体特征(ResNeXt-101,SENet-154)在NP上的效果更好,而使用动作特征(I3D,R2P1D,S3DG)在VP和PP上效果更好。这验证了不同特征对不同的句法结构贡献不同。和VC-PCFG相比,MMC-PCFG在NP,VP和PP的召回率都是前两名且标准差较小,再次说明MMC-PCFG可以有效利用所有特征的信息,并给出较为一致的预测。



三、总结


受限于静态图片的表达能力,现有基于图片的无监督句法分析方法对于动词相关的短语提升有限。本文所提出的利用视频来辅助无监督句法分析可有效的解决这个问题。同时本文还提出了Multi-Modal Compound PCFG用来集成多种不同的特征。该模型的有效性在三个数据集上得到了验证。


从认知科学的角度看,考虑视觉信息、尤其是视频信息,更加接近人类所处的多模态环境,因此本文的结论推进了语言习得中统计学习理论的可能性,而如果这一理论最终得以验证,那么最终打造一个能实时捕捉多模态信息的机器人去习得人类语言将更有可能。


引用:

[1] Kim et al. Compound Probabilistic Context-Free Grammars for Grammar Induction. ACL 2019

[2] Shi et al. Visually Grounded Neural Syntax Acquisition. ACL 2019

[3] Zhao et al. Visually Grounded Compound PCFGs. EMNLP 2020

[4] Gabeur et al. Multi-modal Transformer for Video Retrieval. ECCV 2020

[5] Kitaev et al. Constituency Parsing with a Self-Attentive Encoder. ACL 2018



腾讯 AI Lab 其他入选论文简介


一、文本生成与智能对话


1. 文本生成中不需要增强数据的数据增强方法

Data Augmentation for Text Generation Without Any Augmented Data

本文由腾讯AI Lab独立完成。数据增强是许多基于神经网络的文本生成模型提高性能的有效方法。然而,目前的数据增强方法需要人工定义或选择适当的映射函数来将原始样本映射到增强数据样本。本文推导出一个目标函数对文本生成任务上的数据增强问题进行建模。该方法可以不使用由映射函数构建的增强数据来达到数据增强的目的,且其目标能在保证收敛的情况下被高效地优化,并能集成到文本生成任务常用的损失函数中。在两个文本生成任务的五个数据集上进行的实验表明,该方法可以接近甚至超过常用的数据增强方法。


2. 利用层次课程学习提升对话回复选择能力

Dialogue Response Selection with Hierarchical Curriculum Learning

本文由腾讯主导,与剑桥大学、香港中文大学合作完成。本文主要研究领域为检索式对话系统中的回复选择问题,提出了一种层次课程学习框架,以“从易到难”的顺序训练回复选择模型。该框架包括两种不同课程:语料级课程和实例级课程。在语料级课程中,该模型逐渐学习到了如何找到与对话上文匹配的回复,而在实例级课程中,模型逐渐学习到了如何发现与对话上文不匹配的回复。我们用层次课程学习框架训练了三个最新的回复选择模型,并在三个标准数据集上验证其效果,实验表明,本文提出的学习框架使模型在各种评价指标上都获得了显著的提升。


3. 利用中心性加权和自身冗余性实现无需训练且无需参考的摘要评测

A Training-free and Reference-free Summarization Evaluation Metric via Centrality-weighted Relevance and Self-referenced Redundancy

本文由腾讯AI Lab与香港中文大学合作完成。本文提出了一种无需训练并且无需人工标注参考的摘要评测方法。该方法由中心性加权的相关分数和自我参考的冗余分数组成。对于相关分数,我们会先从输入文档中建立伪参考,然后我们计算给定的摘要与加权过后的伪参考之间的相关分数。对于摘要的冗余分数,我们使用摘要本身计算一个自我掩盖的相似分数来评估该摘要中的冗余信息。最终,我们结合所得到的相关分数和冗余分数来生成给定摘要的最终评测分数。实验证明,在单文档摘要评测和多文档摘要评测中,其性能超过了现存的不需要参考摘要的方法。


4. REAM♯: 面向开放域对话系统中带有参考的评价指标的一种增强方法

REAM♯: An Enhancement Approach to Reference-based Evaluation Metrics for Open-domain Dialog Generation

本文由腾讯AI Lab主导,与鹏城实验室合作完成。目前开放域对话系统面临的较大困难是缺乏一个可靠的自动评测方法。现有的开放域对话文本评测方法主要是基于参考文本的评测方式,而其可靠性既依赖于其捕捉两个文本语义相似度的能力,也依赖于参考文本集合的质量,本文的目标则是填补当下后者的研究空白。基于“高质量的参考文本有助于提高评测可靠性”的假设,本文提出一种增强方法REAM♯,设计了一个基于图网络的模型来预测参考集合的可靠分数,以提升参考文本集合的质量。同时作者展示如何使用预测的可靠分数来帮助构建高质量的参考回复集合。实验结果表明,本文提出的模型能够有效提高评测方法的可靠性。


5. 基于隐空间的开放域对话评价

Enhancing the Open-Domain Dialogue Evaluation in Latent Space

本文由腾讯AI Lab主导,与北京大学、苏州大学、中国人民大学等合作完成。开放域对话中“一对多”特性导致了其自动评估方法的设计成为一个巨大的挑战。本文提出通过隐空间建模增强的对话评估指标——EMS,利用自监督学习来获得一个平滑的隐空间,既可提取对话的上下文信息,也可以对该上下文可能的合理回复进行建模,然后利用隐空间中捕捉的信息对对话评测过程进行增强。在两个真实世界对话数据集上的实验结果证明了该方法的优越性,其中与人类判断相关的Pearson和Spearman相关性分数均胜过所有基线模型。


6. 去芜存菁:两阶段同义句生成方法

Keep the Primary, Rewrite the Secondary: A Two-Stage Approach for Paraphrase Generation

本文由腾讯AI Lab与剑桥大学、苹果公司合作完成。同义句生成是一个重要且具有挑战性的自然语言生成问题。在这项工作中,我们提出了一个新的“识别-聚集”框架来解决此问题。在识别步骤中,输入的句子通过一种主/次识别算法被分为主要内容和次要内容。在聚合步骤中,两组内容分别编码,然后再由解码器进行聚合,该解码器会以自回归的方式生成相似句。在两个标准数据集的实验中,我们证明了该模型明显优于先前的研究。我们还发现该方法可以以可解释和可控制的方式生成同义句。


7. 基于分布距离的对话系统评价

Assessing Dialogue Systems with Distribution Distances

本文由腾讯 AI Lab 主导,与中国科学技术大学,意大利特伦托大学,香港中文大学合作完成。本文提出了一种通过计算生成对话与真实对话之间的分布距离来衡量对话系统表现的方法,并提出了两种基于分布距离的评价指标——FBD和PRD。多个对话数据集上的实验结果表明,与现有的评价指标相比,该指标与人类的评价具有更好的相关性。


二、翻译


1. 快速且准确的神经翻译记忆模型

Fast and Accurate Neural Machine Translation with Translation Memory

本文由腾讯AI Lab与西南大学和南京大学合作完成,提出了一种高效且准确的融合翻译记忆的神经翻译模型。此模型架构简单,仅使用一个双语句子作为其翻译记忆,因而它的训练和推理相当高效;我们还提出了一种新的训练方法来优化模型参数。实验结果表明,相比于几种使用多个双语句子作为翻译记忆的强基线系统,该模型在翻译质量和运行时间方面有极大的优势,且该模型在两个通用任务(WMT Zh->En和En ->De)上也能提升翻译质量。


2. 歪打正着:重新审视多模态机器翻译对视觉上下文的需求

Good for Misconceived Reasons: An Empirical Revisiting on the Need for Visual Context in Multimodal Machine Translation

本文由腾讯AI Lab与香港大学、华东师范大学合作完成。多模态翻译系统(MMT)在传统的基于纯文本的机器翻译系统上引入了额外的模态信息,从而达到提升翻译效果的目的,但人们仍不清楚这个提升是不是真正来源于引入的多模态信息。本文提出了两个可解释的MMT系统,并借此机会重新审视了多模态信息在MMT系统中的贡献。模型显示其在解码阶段忽略了多模态信息,却仍然取得了和当前MMT模型类似的翻译效果提升。更进一步,作者发现引入多模态信息带来的提升其实来源于正则化效应(regularization effect)。文章详细讨论了该实验发现及其对后续MMT研究的影响。


3. 面向通用辅助翻译场景的词级别自动提示

GWLAN: General Word-Level AutocompletioN  for Computer-Aided Translation

本文由腾讯AI Lab独立完成。计算机辅助翻译(CAT)的核心是根据人工译员提供的文本片段提示翻译结果的自动补全功能。本文中从真实的CAT场景中提出了一个通用词级自动补全任务(GWLAN),并构建了第一个公开基准以促进该领域的研究。此外,作者为GWLAN任务提出了一种简单有效的方法,并将其与几个基线进行比较。实验证明,在构建的基准数据集上,该方法可以比基线方法提供更准确的预测。


4. 神经机器翻译中基于单语数据不确定性的自学习采样方法

Self-Training Sampling with Monolingual Data Uncertainty for Neural Machine Translation

本文由腾讯AI Lab主导,与香港中文大学合作完成。传统自训练需要从大规模单语数据中随机采样一个子集进行伪双语数据的构建。为提升现有的采样策略,本文尝试从真实双语数据中提取双语词典,并基于这个双语词典计算单语句子的不确定性。直觉上,具有较低不确定性的单语句子一般包含比较容易翻译的特征,不能够给真实双语带来额外的增益。于是作者提出一个基于不确定性的采样策略,给予那些不确定性更高的单语句子更高的采样概率。为了验证该方法的有效性,作者在两个千万级数据集(WMT英⇒德和英⇒中)上进行实验,对比随机采样和语言模型采样等方法,还能更进一步提高翻译系统的性能。后续的分析实验显示,该方法有效提升了具有高不确定性句子的翻译质量,同时能够帮助目标端语言低频词的预测。

论文代码已开源:https://github.com/wxjiao/UncSamp。


5. 低频词起死回生:充分利用平行数据提升非自回归翻译

Low-Frequency Words Rejuvenation: Making the Most of Parallel Data in Non-Autoregressive Translation

本文由腾讯AI Lab主导,与悉尼大学、澳门大学合作完成。知识蒸馏(KD)常用于构造合成数据来训练非自回归翻译(NAT)模型。但该数据和原始数据在低频词分布上存在差异,从而产生更多的低频词翻译错误。本文提出借助预训练直接将原始数据暴露给NAT。有向对齐分析发现KD使源端低频源词更确定性地与目标端对齐,但反向对齐较差。因此,我们提出反向KD来激活更多目标端低频词的对齐。最后我们充分利用真实数据和合成数据进一步提高NAT性能。我们在5个标准数据集上对两个代表性的NAT框架进行实验。结果表明,提出的方法降低了低频词的翻译错误,从而显著提高了翻译质量。


6. 预训练复制行为对神经机器翻译的影响

On the Copying Behaviors of Pre-Training for Neural Machine Translation

本文由腾讯AI Lab主导,与澳门大学、悉尼大学合作完成。我们发现预训练语言模型(LM)和神经机器翻译模型(NMT)训练目标之间存在较大差异。LM的训练目标学习重建一部分源端单词并复制其中的绝大部分,而NMT的训练目标只复制小部分源端单词。因此,LM初始化NMT会影响模型解码中的复制行为。我们引入复制率(Copying Ratio)指标对复制行为进行定量分析,从而验证了我们的假设。针对该问题,我们提出了一种简单且有效的复制惩罚(Copying Penalty)方法来控制NMT模型解码中的复制行为。实验结果表明该方法可以控制模型的复制行为并提高模型的翻译性能。


7. 神经机器翻译中的语言覆盖偏差

On the Language Coverage Bias for Neural Machine Translation

本文由腾讯AI Lab与清华大学合作完成。用于训练机器翻译模型的双语数据通常源自不同的语言,从而产生语言覆盖偏差(Language Coverage Bias),对机器翻译模型的忠实度影响很大。本文发现显式区分两类训练数据(source-original vs. target-original)可以有效缓解语言覆盖偏差对机器翻译模型的负面效应。实验证明我们的方法还可以进一步提高单语数据增强的方法(forward-translation & back-translation)。


8. 非自回归翻译中的渐进式多粒度训练方法

Progressive Multi-Granularity Training for Non-Autoregressive Translation

本文由腾讯AI Lab主导,与悉尼大学、澳门大学合作完成。非自回归翻译(NAT)是一种新的译文生成新范式,为优化NAT在学习高模态知识(如一对多翻译)的效果,本文提出了针对NAT的渐进式多粒度训练方法。基于NAT模型更倾向于学习细粒度的低模态知识的特性,作者将句子级样本分解为三种类型,即单词、短语、句子,并随着训练的进行,逐渐增加粒度,以充分利用训练数据。在罗马语-英语、英语-德语、汉语-英语和日语-英语的实验表明,该方法提高了短语翻译的准确性和模型译文调序能力,从而在强NAT基线系统上获得了更好的翻译质量。此外,我们还表明,更具确定性的细粒度知识可以进一步提高性能。


三、文本理解


1. 基于非自回归序列预测的中文语法纠错

Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese Grammatical Error Correction

本文由腾讯AI Lab独立完成,研究了中文语法纠错(CGEC)问题,并提出了一个名为Tail-to-Tail的非自回归序列预测的新框架。考虑到原句大多数词是正确的,可以直接从源头传达给目标层,我们采用基于BERT初始化的Transformer编码器作为骨架模型。考虑到仅仅依靠替换不能处理可变长度的纠错情况,一个条件随机场层被堆叠在尾部进行非自回归的序列预测。为了缓解类别不平衡问题,focal loss被整合到损失函数中。此外,我们构建了一个可变长度的语料库来进行实验。在两个数据集上的实验结果,证明了TtT在错误检测和纠正任务的有效性。


2. 端到端的语义图的指代消解

End-to-End AMR Coreference Resolution

本文由腾讯AI Lab和西湖大学合作完成。尽管用AMR作为句子级表示在很多句子级任务展现出正面的效果,很少有工作关注如何用AMR表示多个句子(如文档),本文提出第一个端到端的AMR指代消解模型用于实现多句级别的AMR图的构建,跟之前的pipeline方法和基于规则的方法相比,该模型能够更好地缓解错误传播,并且它在本领域和跨领域上都展示了更加鲁棒的效果,在下游的文档摘要任务中发现,该模型产生的文档级AMR比其他之前方法产生的文档级AMR会得到更好地摘要生成效果。


3. 提升用户参与度:社交媒体推文的投票问题生成

Engage the Public: Poll Question Generation for Social Media Posts

本文由腾讯AI Lab与香港理工大学和微软研究院合作完成,研究生成社交媒体帖子的投票问题,可用于收集人们对重要社会话题的态度以及提升交互体验。针对简短、口语化和稀疏的社交文本,我们利用神经主题模型从评论中挖掘潜在的固有主题;然后把主题特征输入到神经网络模型,利用帖子作为输入去生成问题,并且我们还用双解码器拓展了模型架构以便额外输出投票选项(答案)。实验显示我们的模型超越了现有基线模型,并且论证了评论主题信息和双解码器的有效性。人工测评也进一步验证了该方法的优越性,它可以产生高质量的问题并提升用户的参与度。


4. 对话建模中的语义表达

Semantic Representation for Dialogue Modeling

本文由腾讯AI Lab和西湖大学合作完成。尽管神经网络模型在对话建模上已经取得了很不错的结果,他们在表示对话核心语义方面依然只表现出有限的能力,比如他们经常会忽略对话中的重要实体。本文尝试抽象语义图(AMR)来帮助对话建模,跟只考虑对话的纯文本特征相比,AMR能够提供核心的语义知识并显著减少数据稀疏问题。作者开发了一种能根据句子级AMR构建对话级AMR的算法,并且尝试两种方法将对话级AMR融入到对话系统中去,在对话理解和对话回复生成这两个实验上的结果展示了我们方法的优越性,据我们所知,我们是第一个将一种形式语义表示应用到对话建模中的。


5. CLINE:通过对比否定语义样本增强自然语言理解能力

CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding

本文由腾讯AI Lab与清华大学合作完成。预训练模型容易受到噪声样本的攻击。而作者实验发现对抗训练对模型识别微小语义变化是无用甚至有害的。针对这一问题,本文提出了反语义对比学习策略(CLINE),通过比较具有相似和相反语义的实例,提升模型识别微小扰动引起的语义变化的能力。实验结果表明,我们的方法在情感分析、推理和阅读理解任务上的效果都有很大的提升。同时,CLINE还保证了具有相同语义句子表示的紧凑性和不同语义的可分性。


6. 面向对话理解的领域适应预训练方法

Domain-Adaptive Pretraining Methods for Dialogue Understanding

本文由腾讯AI Lab和香港城市大学合作完成。现存的一些基于开放域语料的预训练模型,例如BERT,SpanBERT等,已经在许多NLP任务上取得了不错的效果。本文将探索基于领域适应的预训练方法对于下游任务的有效性。具体包括三种预训练目标,其中包括一种新颖的,主要关注于谓词-论元关系建模的预训练方法。在两个具有挑战性的下游对话理解任务上的评测结果表明,选择合适的预训练目标可以大幅提升下游对话理解任务的性能,并得到当前最优的效果。


7. 从知识图谱到文本生成中的图与文本联合特征学习

JointGT: Graph-Text Joint Representation Learning for Text Generation from Knowledge Graphs

本文由腾讯AI Lab和清华大学合作完成。已有的知识图谱到文本生成的预训练模型仅仅在知识图谱到文本生成的数据上微调一个文本到文本的预训练模型,如BART和T5,这样在编码过程中大幅度的忽略了图结构信息、以及图到文本的对齐信息。为了解决这个问题,我们提出了图和文本联合表示学习模型JointGT。在编码过程中,我们在Transformer框架内设计并加入了结构敏感的语义规约模块。与此同时,我们提出三种预训练的任务来显示的捕捉图和文本之间的对齐关系,包括对应的图、文本重建,以及通过Optimal Transport来在embedding层面让他们对齐。实验显示JointGT在几个知识图谱到文本的数据集上取得了最好的性能。


(点击文末 “阅读原文” 查看以下三篇论文详细解读)


8. PLOME:一种面向中文拼写纠错融合易错知识的预训练语言模型

PLOME: Pre-training with Misspelled Knowledge for Chinese Spelling Correction

本文由腾讯AI Lab独立完成。本文提出了首个联合汉字预测和拼音预测的中文纠错模型PLOME,基于混淆集的MASK策略,该模型可在预训练时学习到纠错相关的知识。另外,我们还显式建模了拼音和笔画序列,让模型能够自动学习任意两个汉字在发音和字形上的相似度。实验表明PLOME纠错效果显著优于SOTA方法,证明了模型的有效性。本文代码和模型已开源:https://github.com/liushulinle/PLOME


9. 应用于层次文本分类的基于概念的动态路由标签嵌入技术

Concept-Based Label Embedding via Dynamic Routing for Hierarchical Text Classification

本文由腾讯AI Lab独立完成。本文探索了HTC(Hierarchical text classification,分层文本分类)中的概念信息,这是一种在类别层次体系中被共享的领域特异性的细粒度信息。我们提出了一种基于概念的类别标签向量化模型,以提取概念并显式地建模概念的共享机制。在两个广泛使用的公开数据集上的实验结果表明模型的有效性。可视化结果显示了所提出的模型具有较好的可解释性。


10. UniKeyphrae: 一种联合抽取与生成的关键短语预测方法

UniKeyphrase: A Unified Extraction and Generation Framework for Keyphrase Prediction

本文由腾讯AI Lab主导,与北京邮电大学合作完成。本文提出了一种新的端到端联合模型 UniKeyphrase,采用预训练语言模型作为backbone,明确建模了这两个任务之间的相互关系。这为不同类型的keyphrase预测带来帮助:present keyphrase可以为 AKG 提供文档的重要信息,而absent keyphrase则被视为高级潜在主题,而这种信息可以为 PKE任务提供全局语义信息。此外,我们设计了一种词袋约束来联合训练这两个任务,实验表明了所提出模型的有效性。


————————————


腾讯 AI Lab 近期开放多个 NLP 方向岗位,包括基础研究、应用研究、后台开发等方向,欢迎有志于推动NLP技术进步、提升人类生活品质的技术研发人才投递简历


途径1(校招):登陆 join.qq.com 投递校园招聘,选择 “TEG技术工程事业群” 查看岗位详情。

途径2(社招+校招):关注官方公众号 “腾讯TEG招聘” ,发送关键词 “技术大咖” 获取详细招聘团队介绍&岗位描述。



* 欢迎转载,请注明来自腾讯AI Lab微信(tencent_ailab)



登录查看更多
0

相关内容

字节跳动今斩获最佳论文,ACL 2021各大奖项揭晓
专知会员服务
48+阅读 · 2021年7月7日
专知会员服务
55+阅读 · 2021年5月10日
自然语言处理顶会COLING2020最佳论文出炉!
专知会员服务
23+阅读 · 2020年12月12日
ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
深圳内推 | 腾讯AI Lab招聘NLP工程实习生
PaperWeekly
0+阅读 · 2021年12月27日
EMNLP 2021 | 微软亚洲研究院NLP领域最新研究一览
微软研究院AI头条
0+阅读 · 2021年11月9日
Interspeech 2021 | 腾讯AI Lab解读9篇入选论文
腾讯AI实验室
0+阅读 · 2021年8月31日
ACL 2021 | 今年NLP的这些论文,你不能错过!
微软研究院AI头条
0+阅读 · 2021年8月3日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月14日
Arxiv
12+阅读 · 2019年2月28日
Arxiv
21+阅读 · 2018年8月30日
VIP会员
相关资讯
深圳内推 | 腾讯AI Lab招聘NLP工程实习生
PaperWeekly
0+阅读 · 2021年12月27日
EMNLP 2021 | 微软亚洲研究院NLP领域最新研究一览
微软研究院AI头条
0+阅读 · 2021年11月9日
Interspeech 2021 | 腾讯AI Lab解读9篇入选论文
腾讯AI实验室
0+阅读 · 2021年8月31日
ACL 2021 | 今年NLP的这些论文,你不能错过!
微软研究院AI头条
0+阅读 · 2021年8月3日
自然语言处理ACL2020论文列表
专知
12+阅读 · 2020年6月23日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
相关基金
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员