编辑 | 丛末从今天开始,ACL 2020正式进入主会议日程!首日全体大会分为三个部分:开幕式、主席演讲、以及主题报告。其中 Dan Jurafsky, Joyce Chai, Natalie Schluter, Joel Tetreault开幕式报告,介绍了这届ACL 论文情况;Hinrich Schütze 在主席演讲中,介绍了ACL 评审制度的改革:增加ACL Archives, 接收因为25% Cut制度而被拒的论文;主题演讲则由Kathleen R. McKeown 带来,报告题目为《Rewriting the Past: Assessing the Field through the Lens of Language Generation》。 1
在报告《Rewriting the Past: Assessing the Field through the Lens of Language Generation》中,Kathleen R. McKeown提到:近年来,自然语言处理领域通过使用神经网络取得了巨大的进步,几乎完全让这个领域变了模样。 当前需要审视了自然语言处理领域的现状及其与过去的联系,并且关注多种形式的语言生成。具体包括:神经网络在哪些方面特别成功?过去的方法在哪些方面可能仍有价值?以及如果要超越“当下”,需要转向什么方向?为了回答这些问题,McKeown对众多自然语言处理领域的专家进行了访谈。McKeown表示,当他在1982年还是一位PHD学生的时时候,读过Warren Weaver写的一本关于机器翻译的思想的书,当时看起来不起眼,但是却是现在统计学和神经机器翻译研究背后的灵感来源。 书中提到,语言生成在一定程度上是rewriting,这有很多形式,可以是从结构化数据汇总进行生成,也可以是输入文本到输出摘要的rewriting等等。而机器翻译也正是从一种从语言的输入rewriting到另外一种语言的输出。那么这语言生成形式未来会走向哪里呢?McKeown 表示:他没办法很好的回答,所以他与机器翻译以及语言生成等方面专家进行了交谈,试图想找到该领域未来的走向。整个访谈分为过去、现在和未来三个维度。 McKeown的第一个问题是:神经网络当前最大的成就是什么,它们真正成功的地方在哪里?McKeown先列举出了当前的神经网络的进展文章,例如抽取模型(Extractive models)中的LSTM Seq2Seq、RNN plus history、BERT for summarization等;摘要模型中的Attention based copy and coverage、BART:LSTM pre-trained language model等。上述这些工作非常复杂,也非常成功,那么神经网络的成功之处到底在哪?MIT的Regina Barzilay表示,神经网络最大的成功就是催生了许多实用模型,这些模型的正在被数百万人使用,而我们之前的一些工作更多的是一种“研究模型”。亚马逊AI的Ramesh Nallapati表示,当前在自然语言处理领域,即使背景知识很少的人也能部署模型,毕竟只要把他们当做“黑盒子”就行了。康奈尔理工学院的Sasha Rush表示,他之前一直以为“翻译”是经验驱动型的领域,但是自从有人向他展示了基于注意力的翻译模型后,他完全转变了之前的看法。MIT的Jacob Andreas表示,广义上的语言生成应用,无论是无条件的还是有条件的,神经网络比我们以前的结构化输入少得多。微软研究员Michel Galley表示,“总结”和翻译是一种语义保存,当然了,深度学习虽然有改进,但在做语义保存的过程中也会有信息损失。另外,对话领域在深度学习出现之前,一直是靠经验直觉。亚马逊的Dilek Hakkani-Tur表示,从他第一次看到机器翻译中使用注意力机制开始,学习并“注意”对话历史的某些部分对追踪对话状态、生成与对话历史一致的响应等有很大的帮助。Yejin Choi表示,NLP中的预训练模型取得了巨大的成功,对他个人来说,这些模型在生成连贯性文本方面的能力也非常强,这让他非常兴奋。除了上述观点,其他观点有:神经网络是拟合高度非线性函数的唯一途径;对NLP的最大的影响来自单词语义的表征, 因此,我们不能仅将单词视为小字符串,否则只能分析少量标签数据;神经网络方面最有潜力的是表征学习。在上述专家发表完观点,McKeown总结道:深度学习已为机器翻译、文本摘要等领域创造了具有鲁棒性的方法,并且其成功背后的机制也多种多样,包括注意力、预训练语言模型、词嵌入、表征学习等 ,并根据大数据拟合高度非线性的函数。第二个问题:回溯过去,语言学、哲学、以及心理学为NLP领域提供了怎样的认知方法?McKeown表示,过去有很多这方面的文章,在提供程序约束(pragmatic constraints),中心理论将“注意力集中”相关联,以及在指称表达和语篇连贯方面提供了助力;哲学理论在表达艺术以及暗喻方面也提供了“推理”功能。 在20世纪90年代的时候,NLP的热门方法是大数据分析,倾向于用语料库分析词选择和词约束。这时候语言形式主义使用了功能性统一语法(functional unification grammar)。1990~2000年这十年间是统计NLP的领域,这期间统计指标成了评价标准,随后研究方向转向了机器学习,生成模型和支持向量机成了主流方法。之后,NLP又有了结构性转变,最主要的标志是用经验方法处理自然语言。那么在这期间,我们学到了什么呢?第一,系统建立在跨学科理论的基础上的;第二,处理自然语言的过程在那个需要将数据扩展到精心设计的语料库中;第三,NLP经历了全面的改革;第四,即使是新的统计方法也体现了跨学科理论。第三个问题:未来的NLP会转向哪个方面?首先,要向其他学科和传统人工智能学习;再者,我们遇到更难的问题时候,有一个中间表征非常重要;其次,词嵌入是否是正确的语义层次的总结?显然我们需要衡量最重要的东西;最后,也许符号或语义知识会很有用。未来还有很多需要解决的问题,例如如何处理更小但更有趣的数据集?我们该怎样设计新颖有意义的任务?在演讲的最后,McKeown总结道:现在对我们来说有个好消息是,稳健的语言生成模型现在已经是可得的;而未来的算法要从任务中学习而不是从数据集中学习。值得一提的是,跨学科的方法已经在领域内产生了巨大的影响。