新智元推荐
编辑:元子
作者:哈工大SCIR 车万翔教授
首先来看一下2010年到2020年这11年来,ACL长文的录用情况和趋势,可以看出从2018年开始,投稿和录用的数量急剧上升,说明作为人工智能皇冠上的明珠,自然语言处理领域越来越受到研究界的关注。另外,ACL的录用率多年来基本保持稳定,一直在25%左右。
再来看一下今年录用文章标题的词云,从中可以看出大家关注比较多的任务有生成、翻译、对话、问答、抽取、句法等方向,用到的方法多涉及到神经、网络、注意力、图等。另外,从文章作者的词云可以看出前几名的基本都是中国的大姓,这也反应出华人作者在ACL顶会上已经占据非常大的比例。
为了更直观的了解近年来ACL各个研究领域的变化趋势,我们做了一个领域趋势竞赛图,帮助大家更好地看出各个研究领域此消彼长的变化过程。特别说明的是,我们的领域是参考ACL 2019进行划分的,由于其它年份的领域划分方式不尽相同,我们采用人工的方式进行了映射。另外,由于2020年目前只有文章列表,还没有领域数据,所以也是人工逐篇文章分的类,因此具有一定的主观性,有可能不是特别准确。
从这段视频中,我们可以看到几个非常明显的趋势,比如人机对话等新兴领域上升势头迅猛,而句法分析、机器翻译等传统领域有所衰落。下面,就几个变化比较明显的领域分别加以介绍。
2015年之前,ACL上几乎没有人机对话的文章发表,但是从2016年开始,随着语音识别技术的突破,NLPer开始重视人机对话的研究,今年ACL该方向上的研究重点和研究趋势如下图所示。
可以看到近10年来,机器学习的热度一直居高不下,特别是随着预训练模型的成功,NLP模型大有被大一统的趋势。下面的一些机器学习研究方向为今年ACL所重点关注。
严格来讲自然语言处理应被分为自然语言处理和自然语言生成两个方向,然而受到技术的限制,传统的文本生成多采用基于模板的方法,因此在研究上并没有引起太多的关注。随着序列到序列模型的产生,人们意识到可以采用类似的方法进行逐词的文本生成,从而产生了大量的研究和应用问题,因此文本生成也成为了目前自然语言处理的热门研究领域。今年ACL上的研究热点如下图所示。
随着斯坦福大学SQuAD数据集的诞生,以抽取式阅读理解为代表的问答系统近年来引起了大量的关注。但是为什么说是“绝地反击”呢?主要是因为在更久之前,问答系统就曾经是信息检索和自然语言处理领域的热门研究方向,但是受限于当时的技术手段,答案准确率并不是很高,因此该研究方向曾一度被人们所冷落。经过这几年的发展,问答系统的模型逐渐被预训练模型所统一,因此今年ACL上的相关文章更关注问答系统的各个子任务或引入更多资源。
仍然是受预训练模型的影响,在很多刚被提出不久的自然语言处理任务上,机器的表现很快超过人类。因此最近有大量的研究工作试图提出对机器更具有挑战性的任务和资源,从而逼迫机器更像人一样“思考”。
几家欢乐几家愁,由于上述领域的快速崛起,更重要的是由于模型逐渐为Transformer所统一,使得机器翻译这一“老牌”自然语言处理任务受关注的程度有所降低。今年ACL的相关研究也分散到不同的翻译场景设置上。
和机器翻译类似,句法分析这一曾经自然语言处理领域的当家任务也逐渐式微。其背后的原因有两个:一方面是因为Biaffine Parser的出现证明了结构学习这一自然语言处理的特色问题,对于句法分析并不重要;另一方面,预训练模型的出现使得句法分析的处境更是雪上加霜。预训练模型不但能大幅提高句法分析的效果,更重要的是其内部已经蕴含了句法结构信息,因此就无需为下游任务提供显式的句法结构了。由于这些原因,今年ACL上句法分析的热点也主要集中在了研究探针任务和句法分析的应用上了。不过苏州大学李正华老师所提出的高阶TreeCRF模型还是能进一步提升句法分析的效果,这一点非常难得。
语义分析领域的情况稍显复杂,对于词级别的语义分析,当年受到Word2vec模型的启发,产生了一大批相关的研究,其影响力甚至超出了自然语言处理的范围,在知识图谱、推荐系统等领域都广受关注。而近年的预训练模型让大家将研究重点从之前这种静态词向量转移到了动态词向量等方向。至于句级别语义分析,本身的定义就比较模糊,很多任务都可以归为语义分析,如AMR、CCG Parsing等,当然它们也可以被归为结构分析(Parsing)类任务,所以趋势上有所波动。
上面这些分析主要是从研究领域的趋势变化展开的,我们还可以从其它维度进行分析,来帮助我们更全面了解自然语言处理的研究。如下图所示,我们总结了今年ACL上几个热门的研究方向,如对多语言、多模态、多领域和低资源的研究,融入知识的方法,图神经网络的应用等。
最后给出我在调研过程中的一些杂想,仅供参考,欢迎大家一起讨论,碰撞更多的火花。谢谢!