2018年度NLP领域最令人兴奋的10项新研究

2018 年 12 月 29 日 AI前线
作者 | Sebastian Ruder
译者 | Sambodhi
编辑 | Natalie
AI 前线导读:2018 年行将过去,作为人工智能的一个重要分支,自然语言处理(Natural Language Processing,NLP)在这一年里有什么令人兴奋的、且有影响力的想法呢?研究自然语言处理和深度学习的博士生 Sebastian Ruder 整理了今年发现的最出彩的十个想法,撰写了这篇文章,AI 前线将其翻译成中文,以飨读者。

更多优质内容请关注微信公众号“AI 前线”(ID:ai-front)

对于每一种想法,我将重点介绍 1~2 篇能够很好地实现该想法的论文。我尽量保持列表的简洁,因此,如果我没有涵盖到所有相关的工作,请接受我的歉意。需要说明的是,这份列表必然有很大的主观成分,它涵盖了主要与迁移学习和泛化(Generalization)相关的想法。其中大多数(除却一些例外)并非趋势(但我怀疑有些可能在 2019 年会变得更加“时髦”)。

1) 无监督机器翻译

在 ICLR 2018 有两篇无监督机器翻译的论文:Unsupervised Machine Translation Using Monolingual Corpora Only(《仅使用单语语料库的无监督机器翻译》,https://arxiv.org/abs/1711.00043)、Unsupervised Neural Machine Translation(《无监督神经机器翻译》,https://arxiv.org/abs/1710.11041)。令人惊讶的是,它们确实有效,但与有监督机器翻译系统相比,结果仍然差强人意。在 EMNLP 2018 年会上,来自两篇论文(Phrase-Based & Neural Unsupervised Machine Translation(《基于短语和神经网络无监督机器翻译》,https://arxiv.org/abs/1804.07755)、Unsupervised Statistical Machine Translatio(《无监督统计机器翻译》,https://arxiv.org/abs/1809.01272))的无监督机器翻译大获成功,这两篇论文来自同两组的研究团队,它们大大改进了之前的方法。我认为最精彩的论文如下:

  • Phrase-Based & Neural Unsupervised Machine Translation(《基于短语和神经网络无监督机器翻译》,EMNLP 2018,https://arxiv.org/abs/1804.07755):这篇论文很好地提炼了无监督机器翻译的三个关键需求:良好的初始化、语言建模和反向计算建模(通过反向翻译)。正如我们将在下面看到的,这三个需求在其他无监督场景中也都是有益的。反向计算建模增强了循环一致性,而循环一致性在不同的方法中得到了应用,在 CycleGAN 中最为突出(参阅 Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks,《基于循环一致性对抗网络的不成对图像间转换》,https://arxiv.org/abs/1703.10593)。该论文进行了大量的实验,并评估了两种资源较少的语言对,即英语 - 乌尔都语和英语 - 罗马尼亚语。我们希望将来在资源缺乏的语言上能够看到更多的成果。

2) 预训练语言模型

使用预训练语言模型可能是今年自然语言处理最为重要的趋势,所以我不打算赘述这方面。预训练语言模型有很多方法,令人难忘:ELMo、ULMFiT、OpenAI Transformer和 BERT。我认为最精彩的论文如下:

  • Deep contextualized word representations(《深层语境词表示》,(NAACL-HLT 2018,https://arxiv.org/abs/1802.05365):引入 ELMo 的论文广受好评。除了令人印象深刻的实证结果之外,最引人注目的是细致的分析部分,该部分解释了各种因素的影响,并分析了表示中捕获的信息。词义消歧(Word Sense Disambiguation,WSD)分析本身(下表左下方)执行得很好。两者都表明语言模型本身提供了接近最先进的 WSD 和 POS 标注性能。

3) 常识推理数据集

将常识纳入模型是推动人工智能发展的最重要方向之一。然而,创建好的数据集并不容易,即使是流行的数据集也存在很大的偏差。今年出现了一些执行良好的数据集,旨在教授模型一些常识,例如来自华盛顿大学的 Event2Mind(https://arxiv.org/abs/1805.06939)和 SWAG(https://arxiv.org/abs/1808.05326)。SWAG 的问题意外得到了迅速的解决(http://u6.gg/g3Nmn)。我认为最精彩的论文如下:

  • Visual Commonsense Reasoning(《可视化常识推理》,arXiv 2018,http://visualcommonsense.com/):这是第一个可视化的 QA 数据集,每个答案都包含一个基本原理(解释)。此外,问题需要复杂的推理。通过确保每个答案的先验概率为 25%(即每个答案在整个数据集中出现 4 次,3 次为错误答案,1 次为正确答案),创作者竭尽全力解决可能存在的偏差。这需要使用计算相关性和相似性的模型来解决约束优化问题。我们希望在创建数据集时,防止可能的偏差将成为一个常见的组件。最后,看看下图,数据是如何华丽地呈现出来的。

4) 元学习

元学习在少样本学习、强化学习和机器人技术有很大的用途,最突出的例子是模型无关的元学习(model-agnostic meta-learning,MAML)(参见 Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks,《快速适应深度网络的模型无关元学习》,https://arxiv.org/abs/1703.03400)。但在自然语言处理中的成功应用却很少见。元学习对训练样本数量有限的问题最有用。我认为最精彩的论文如下:

  • Meta-Learning for Low-Resource Neural Machine Translation(《用于低资源神经机器翻译的元学习》,EMNLP 2018,http://aclweb.org/anthology/D18-1398):作者使用 MAML 学习翻译的良好初始化,将每种语言对视为单独的元任务。适应低资源语言可能是自然语言处理中元学习最有用的设置。特别是将多语言迁移学习(如 multilingual BERT)、无监督学习和元学习相结合是一个很有前途的方向。

5) 健壮的无监督方法

今年,我们和其他人观察到,当语言不同时,无监督的跨语言词嵌入方法就会崩溃。这在迁移学习中是常见的一种现象,源和目标的设置(如领域适应中的领域、持续学习和多任务学习中的任务)之间的差异会导致模型的恶化或失败。因此,使模型针对这类更改变得更加健壮是非常重要的。我认为最精彩的论文如下:

  • A robust self-learning method for fully unsupervised cross-lingual mappings of word embeddings(《一种健壮的自主学习方法,用于完全无监督的词嵌入跨语言映射》,ACL 2018,http://www.aclweb.org/anthology/P18-1073):这篇论文没有使用元学习的初始化方法,而是利用他们对问题的理解来设计更好的初始化。特别是,它们将两种语言中具有相似分布的单词进行配对。这是一个很好的例子,可以利用分析中的领域专业知识和见解时模型更加健壮。

6) 理解表示

为了更好地理解表示,人们在这方面已经做了很多努力。特别是“诊断分类器”(diagnostic classifiers,旨在测量学到的表示是否可预测某些属性的任务,见 Fine-grained Analysis of Sentence Embeddings Using Auxiliary Prediction Tasks,《辅助预测任务的句嵌入进行细粒度分析》,https://arxiv.org/abs/1608.04207)已经变得相当普遍(http://arxiv.org/abs/1805.01070)。我认为最精彩的论文如下:

  • Dissecting Contextual Word Embeddings: Architecture and Representation(《分析上下文词嵌入:架构与表示》,EMNLP 2018,http://aclweb.org/anthology/D18-1179):这篇论文在更好地理解预训练语言模型表示方面做了大量工作。他们广泛研究了在精心设计的无监督和有监督的任务中学习单词的跨度表示。结果发现,预训练表示学习任务与低层次形态、较低层次的句法任务和较高层次的较长范围语义任务相关。对我来说,这确实表明了,预训练语言模型确实具备与在 ImageNet 上经过预处理的计算机视觉模型相似的属性(见 https://thegradient.pub/nlp-imagenet/)。

7) 机敏的辅助任务

在许多情况下,我们看到越来越多的人使用多任务学习和精心选择的辅助任务。作为一项好的辅助任务,数据必须易于访问。其中一个最突出的例子是 BERT(https://arxiv.org/abs/1810.04805),它使用了下一句预测(在跳跃式思维(https://papers.nips.cc/paper/5950-skip-thought-vectors.pdf)和最近的快速思维(https://arxiv.org/pdf/1803.02893.pdf)都使用过),效果非常好。我认为最精彩的论文如下:

  • Syntactic Scaffolds for Semantic Structures(《语义结构的句法支架》,(EMNLP 2018,http://aclweb.org/anthology/D18-1412):这篇论文提出了一种辅助任务,通过预测每个跨度对应的句法成分类型来预先处理跨度表示。尽管在概念上很简单,但辅助任务在跨度级预测任务上有很大的改进,例如语义角色标注和共指消解。这篇论文表明,在目标任务(此处指跨度)所要求的层次上学习的专业表示是非常有益的。

  • pair2vec: Compositional Word-Pair Embeddings for Cross-Sentence Inference(《pair2vec:用于跨句推理的组合词对嵌入》,arXiv 2018,https://arxiv.org/abs/1810.08854):与此类似,这篇论文通过最大化词对与其上下文的点间互信息(pointwise mutual information)来预训练词对表示(word pair representations)。这鼓励模型学习更有意义的词对表示,而不是更一般的目标,如语言建模。预训练表示在诸如 SQuAD、MultiNLI 之类的任务中是有效的,这些任务需要跨句推理。我们可以期望看到更多的预训练任务,这些任务捕获特别适合某些下游任务的属性,并且是对更通用的任务(如语言建模)的补充。

8) 半监督学习与迁移学习相结合

随着迁移学习的最新进展,我们不应忘记使用目标任务特定数据的更明确的方法。实际上,预训练表示与许多形式的半监督学习是互补的。我们已经探索了自主标记的方法,这是半监督学习的一种特殊类别。我认为最精彩的论文如下:

  • Semi-Supervised Sequence Modeling with Cross-View Training(《使用交叉视图训练的半监督序列建模》,EMNLP 2018,http://aclweb.org/anthology/D18-1217):这篇论文提出了一个概念上非常简单的想法,即确保对输入的不同视图的预测与主模型的预测一致,可以在不同的任务集上获益。这一想法与 word dropout 类似,但允许利用未标记的数据使模型更加健壮。与其他 self-ensembling 模型(如 mean teacher(https://papers.nips.cc/paper/6719-mean-teachers-are-better-role-models-weight-averaged-consistency-targets-improve-semi-supervised-deep-learning-results.pdf))相比,它是专门为特定的自然语言处理任务设计的。通过对隐式半监督学习的大量研究,我们有望在未来看到有更多明确地尝试为目标预测进行建模的工作。

9) 使用大文档的 QA 问答系统和推理

随着一系列的 QA 问答数据集的出现,QA 问答系统有了很大的发展(见 https://arxiv.org/abs/1809.09600、https://stanfordnlp.github.io/coqa/、http://quac.ai/、http://qangaroo.cs.ucl.ac.uk/)。除了对话式问答和多步推理外,问答系统最具挑战性的方面是综合叙述和大量信息。我认为最精彩的论文如下:

  • The NarrativeQA Reading Comprehension Challenge(《NarrativeQA 在阅读理解上的挑战》,TACL 2018,http://aclweb.org/anthology/Q18-1023):这篇论文提出了一个具有挑战性的全新 QA 问答数据集,该数据集基于对整部电影剧本和书籍的问答。虽然这一任务对当前的方法仍然遥不可及,但是,模型仍然提供了使用摘要(而非整本书)作为上下文、选择答案(而非生成答案)以及使用 IR 模型的输出的选项。有了这些变体,任务会变得更加可行,并使模型能够逐步扩展到完整的设置。我们需要更多这样的数据集,尽管这些数据集存在费时耗资的问题,但我们仍然要设法让它们变得易于访问。

10) 归纳偏向

归纳偏向,如 CNN 中的卷积、正则化、Dropout 等其他机制,是神经网络模型的核心部分,它们起到了正则化器的作用,使模型更具样本效率。然而,提出一种广泛使用的归纳偏向,并将其纳入模型是一项具有挑战性的任务。我认为最精彩的论文如下:

  • Sequence classification with human attention (《人类注意力的序列分类》,CoNLL 2018,http://aclweb.org/anthology/K18-1030):这篇文章提出了利用眼球追踪语料库中的人类注意力来规范 RNN 的注意力的方法。鉴于目前许多模型(如 Transformers)都使用注意力,如何更有效地训练注意力是一个重要方向。我看到另外一个例子也很棒:人类语言学习可以帮助改进我们的计算模型。

  • Linguistically-Informed Self-Attention for Semantic Role Labeling (《用于语义角色标注的语言学自注意》,EMNLP 2018,http://aclweb.org/anthology/D18-1548):这篇论文有很多让人喜欢之处:在句法和语义任务上共同训练的 Transformers;在测试时注入高质量解析的能力;以及域外评估。它还通过训练一个注意力的头部来关注每个标记的句法父项,从而规范 Transformer 的多头注意力,使其对语法更加敏感。我们可能会看到更多 Transformer 注意力头的例子,这些例子被用做辅助预测器,专注于输入的特定方面。

原文链接:

http://ruder.io/10-exciting-ideas-of-2018-in-nlp/


如果你喜欢这篇文章,或希望看到更多类似优质报道,记得给我留言和点赞哦!

登录查看更多
16

相关内容

【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【Google】无监督机器翻译,Unsupervised Machine Translation
专知会员服务
35+阅读 · 2020年3月3日
机器翻译深度学习最新综述
专知会员服务
96+阅读 · 2020年2月20日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
深度学习自然语言处理综述,266篇参考文献
专知会员服务
225+阅读 · 2019年10月12日
2018年自然语言处理值得关注的研究、论文和代码
一文概述 2018 年深度学习 NLP 十大创新思路
AI研习社
3+阅读 · 2019年1月6日
机器之心年度盘点:2018年重大研究与开源项目
机器之心
20+阅读 · 2018年12月30日
从想法到实干,2018年13项NLP绝美新研究
专知
75+阅读 · 2018年12月26日
不只有BERT!盘点2018年NLP令人激动的10大想法
黑龙江大学自然语言处理实验室
4+阅读 · 2018年12月24日
CoNLL 2018 | 最佳论文揭晓:词嵌入获得的信息远比我们想象中的要多得多
黑龙江大学自然语言处理实验室
3+阅读 · 2018年11月2日
NLP选题:6大研究方向助你开启科研之路
论智
4+阅读 · 2018年3月6日
一文概述2017年深度学习NLP重大进展与趋势
炼数成金订阅号
3+阅读 · 2017年12月15日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
3+阅读 · 2018年12月19日
Arxiv
5+阅读 · 2018年10月23日
Arxiv
4+阅读 · 2018年9月6日
Phrase-Based & Neural Unsupervised Machine Translation
Arxiv
6+阅读 · 2018年2月26日
VIP会员
相关资讯
2018年自然语言处理值得关注的研究、论文和代码
一文概述 2018 年深度学习 NLP 十大创新思路
AI研习社
3+阅读 · 2019年1月6日
机器之心年度盘点:2018年重大研究与开源项目
机器之心
20+阅读 · 2018年12月30日
从想法到实干,2018年13项NLP绝美新研究
专知
75+阅读 · 2018年12月26日
不只有BERT!盘点2018年NLP令人激动的10大想法
黑龙江大学自然语言处理实验室
4+阅读 · 2018年12月24日
CoNLL 2018 | 最佳论文揭晓:词嵌入获得的信息远比我们想象中的要多得多
黑龙江大学自然语言处理实验室
3+阅读 · 2018年11月2日
NLP选题:6大研究方向助你开启科研之路
论智
4+阅读 · 2018年3月6日
一文概述2017年深度学习NLP重大进展与趋势
炼数成金订阅号
3+阅读 · 2017年12月15日
相关论文
Top
微信扫码咨询专知VIP会员