【导读】自然语言处理领域顶级会议ACL 2020,由于全球新冠肺炎疫情暴发,将改为在线举办。昨天ACL组委会发布了接受论文通知,你的论文中了吗?众多作者也纷纷发布自己中的论文。值得注意的是,由于全球新冠肺炎疫情暴发,将改为在线举办。

今年ACL投稿论文达到3000+篇,ACL 2020的审稿周期从19年的12月9日一直到20年的4月3日接近4个月时间,评审细致,竞争激烈!

The 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020) 将于2020年7月5日至10日在美国华盛顿州西雅图举行。ACL年会是计算语言学和自然语言处理领域最重要的顶级国际会议,CCF A类会议,由计算语言学协会主办,每年举办一次。其接收的论文覆盖了对话交互系统、语义分析、摘要生成、信息抽取、问答系统、文本挖掘、机器翻译、语篇语用学、情感分析和意见挖掘、社会计算等自然语言处理领域众多研究方向。该会议的论文基本代表自然语言处理领域最新研究进展和最高研究水平,受到学术界和产业界的高度关注。

值得一提的是,为了应对新冠肺炎的影响,大会主席Dan Jurafsky发信确认,ACL2020将在线举办。

ACL 2020 论文抢鲜看!

哈工大SCIR八篇长文被ACL 2020录用(授权转载来自哈工大社会计算与信息检索研究中心公众号,哈工大SCIR) https://mp.weixin.qq.com/s/sFUO02l-RfF7OsAMAoi_lQ

题目:Conversational Graph Grounded Policy Learning for Open-Domain Conversation Generation

作者:徐俊,王海峰,牛正雨,吴华,车万翔,刘挺

摘要:我们提出用图的形式捕捉对话转移规律作为先验信息,用于辅助开放域多轮对话策略学习。基于图,我们设计策略学习模型指导更加连贯和可控的多轮对话生成。首先,我们从对话语料库中构造一个对话图(CG),其中顶点表示“what to say”和“how to say”,边表示对话当前句与其回复句之间的自然转换。然后,我们提出了一个基于CG的策略学习框架,该框架通过图形遍历进行对话流规划,学习在每轮对话时从CG中识别出哪个顶点和如何从该顶点来指导回复生成。我们可以有效地利用CG来促进对话策略学习,具体而言:(1)可以基于它设计更有效的长期奖励;(2)它提供高质量的候选操作;(3)它让我们对策略有更多的控制。我们在两个基准语料库上进行了实验,结果证明了本文所提框架的有效性。

题目:Document Modeling with Graph Attention Networks for Multi-grained Machine Reading Comprehension

作者:郑博,文灏洋,梁耀波,段楠,车万翔,Daxin Jiang,周明,刘挺

摘要:自然问答(Natural Question)是一个新的具有挑战性的机器阅读理解数据集,该数据集对文档提供两个粒度的答案,分别是长答案(通常为一个段落)以及短答案(长答案内部一个或多个实体)。尽管现有的阅读理解方法在该数据集上是有效的,但是它们将两个粒度的答案视为两个独立的任务进行训练,并且忽略了答案之间的依赖关系。为了解决这个问题,我们提出了一种新的多粒度机器阅读理解框架,按照文档的层次结构以四个粒度进行建模,分别是文档级、段落级、句子级以及词级别。我们利用图注意力网络(Graph Attention Networks)获取不同级别的表示并使得它们可以被同时学习。长短答案可以分别从段落级以及词级别表示中提取,通过这种方式,我们可以建模两种粒度答案之间的关系,使它们互相提供信息。我们联合训练这两个子任务,实验结果表明,我们的方法是有效的,在长短答案评价标准上都优于之前的系统。

题目:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog

作者:覃立波,徐啸,车万翔,张岳,刘挺

摘要:最近,端到端的任务型对话系统的研究已经取得了巨大的成功。但是,大多数神经网络模型都依赖于大量的训练数据,这些数据往往局限于一些特定的领域,例如导航和查询天气等领域。这使得现有模型很难泛化到标注数据以外的新领域下。并且,如何有效利用源领域的标注数据来提升较少标注数据的新领域,或者是没有标注数据的新领域的性能,这样的工作很少。因此,我们首次在端到端任务型对话系统中提出一个shared-private 框架去显式学习领域特有的和领域共享的知识。此外,我们提出了一种新颖的动态融合网络(DF-Net)来动态探索目标领域与每个领域之间的相关性。在两个公开的数据集上的实验结果表明我们的模型不仅达到SOTA性能,并且,在few-shot的场景下,我们模型的性能要比之前的最佳模型平均高13.9% F1 score,这进一步验证了我们模型的可迁移性。

题目:Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network

作者:侯宇泰,车万翔,赖勇魁,周之涵,刘一佳,刘晗,刘挺

摘要:在本文中,我们研究了少样本槽位提取问题(Few-shot Slot-Tagging)。与其他广泛研究的少样本问题相比,少样本槽位提取面临着“建模标签间依赖关系”的独特挑战。但是,由于不同领域间存在标签集的差异,我们很难将先前学习的标签依赖应用于新的领域。为了解决这个问题,我们在CRF中引入了折叠的依赖关系迁移机制(Collapsed Dependency Transfer),通过建模抽象的标签依赖关系来实现这种迁移。在小样本和元学习的情景下,CRF的发射概率可以用利用度量学习得到:计算为单词与每个标签类别的相似度。为了计算这种相似性,我们在近期的图像小样本分类模型TapNet基础上,利用标签名称语义来表示标签,提出了一种标签增强的任务自适应投影网络(L-TapNet)。实验结果表明,我们的模型在1-shot实验中以14.14 F1的分数明显优于最强现有相关系统。

题目:Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation

作者:宋皓宇,王琰,张伟男,刘晓江,刘挺

摘要:在对话过程中保持一致的角色属性信息对人类来说是很容易的,但对机器来说,这仍然是一项有待探索的任务。近几年,基于角色属性的对话生成任务被提出来,旨在通过在对话生成模型中加入显式的角色文本来解决属性一致性问题。虽然现有的基于角色的对话生成模型在生成类似人类的回复上取得了成功,但是它们的单阶段解码框架很难避免生成不一致的角色词。在这项工作中,我们提出了一个三阶段的对话生成框架。该框架使用生成-删除-重写机制从生成的原型回复中删除不一致的词语,然后进一步将其改写为属性信息一致的回复。我们通过人工评价和自动指标进行了评估。在PersonaChat数据集上的实验表明,我们的方法获得了非常好的性能。

题目:How Does Selective Mechanism Improve Self-Attention Networks? 作者:耿昕伟,王龙跃,王星,秦兵,刘挺,涂兆鹏 简介:近年来,在自注意力网络引入选择机制使得模型关注其中重要的输入元素已经取得很好的效果。但是,对于选择机制取得这样结果的原因尚不清楚。本文提出一个通用的基于选择机制的自注意力网络。传统的自注意力网络在顺序编码以及结构信息建模能力存在一些不足,而本文针对其提出相应的假设,并在实验中验证假设的正确性。实验分析发现,将选择机制引入自注意力网络的好处在于:(1) 其更多关注周围词的信息,从而对周围词序的变化比较敏感,使得其更好对顺序进行编码;(2)其对于树结构重要成分关注度更高,从而其拥有更强的捕捉结构信息的能力。

题目:Slot-consistent NLG for Task-oriented Dialogue System with Iterative Rectification Network 作者:李杨名,姚开盛,覃立波,车万翔,李小龙,刘挺 摘要:基于神经网络的方法在 NLG 任务上已经取得了不错的效果。然而,数据驱动类型的模型无法保证鲁棒性,例如忽略了一个输入槽位或生成了多余的槽位。前人的工作将这个问题称为幻视现象。在这个工作中,我们研究如何通过保证槽位一致性提高 NLG 模型的可靠性。所谓槽位一致性是指模型生成的模板应该和输入表示语义一致,即具有相同的槽位集合。针对这个问题,我们提出迭代改写器,它能保证 NLG 模型生成正确而且流利的句子。它包含两个模块:(1)基于检索的自举抽样,用于抽样伪错数据;(2)策略梯度学习,用于融入离散奖励,例如不一致惩罚度。我们在 4 个数据集上验证了模型的有效性,结果显示我们大大降低了所有基线模型的槽位错误率 (ERR) 并达到了目前最好的效果,并且BLEU 的提升和人工校验的结果也显示了我们模型提高了生成句子的顺畅度。

题目:Towards Conversational Recommendation over Multi-Type Dialogs

作者:柳泽明,王海峰,牛正雨,吴华,车万翔,刘挺

摘要:真实人机对话,涉及多类型对话(闲聊、任务型对话、问答等),如何自然地融合多类型对话是一个重要的挑战,为应对这个挑战,我们提出一个新的任务——多类型对话中的对话式推荐,期望Bot能够主动且自然地将对话从非推荐对话(比如『问答』)引导到推荐对话,然后基于收集到的用户兴趣及用户实时反馈通过多次交互完成最终的推荐目标。为便于研究这个任务,我们标注了一个包含多种对话类型、多领域和多种对话逻辑(考虑用户实时反馈)的human-to-human对话式推荐数据集MultiRec(1万个对话和16.4万个utterance)。MultiRec包含多对推荐寻求者(user)和推荐者(bot)的多个序列对话,在每个对话中,推荐者使用丰富的交互行为主动引导一个多类型对话不断接近推荐目标。这个数据集允许我们系统地调查整个问题的不同部分,例如,如何自然地引导对话,如何与用户交互以便于推荐。最后,我们使用一个具有多对话目标驱动策略机制的对话生成框架在MultiRec上建立基线结果,表明了该数据集的可用性,并为将来的研究设定了基线。

更多ACL论文列表:

1.自然语言处理模型里的偏见 Predictive Biases in Natural Language Processing Models: A Conceptual Framework and Overview

https://arxiv.org/abs/1912.11078

  1. 无监督域聚类Unsupervised Domain Clusters in Pretrained Language Models

  2. 逻辑自然语言生成,LogicNLG: Logical Natural Language Generation from Open-Domain Tables

  3. 无监督跨语言表示学习,Unsupervised Cross-lingual Representation Learning at Scale

https://arxiv.org/pdf/1911.02116.pdf

  1. 语言和视觉推理的跨模态关联 Cross-Modality Relevance for Reasoning on Language and Vision

https://hlr.github.io/

  1. 利用合成数据进行零样本迁移学习,实现多域对话状态跟踪,Zero-Shot Transfer Learning with Synthesized Data for Multi-Domain Dialogue State Tracking

https://almond-static.stanford.edu/papers/multiwoz-acl2020.pdf

  1. 多阶段蒸馏框架用于大规模多语言NER,Multi-Stage Distillation Framework for Massive Multi-lingual NER

https://www.microsoft.com/en-us/research/uploads/prod/2020/04/TinyMBERT_Multi_lingual_NER_Distillation.pdf

  1. 注意力可解释性 Learning to Deceive with Attention-Based Explanations

https://arxiv.org/pdf/1909.07913.pdf

更多ACL2020论文传送门:

  1. 如何看待ACL 2020录用结果?- 知乎

https://www.zhihu.com/question/384287944

  1. https://twitter.com/hashtag/acl2020nlp?src=hashtag_click

https://twitter.com/hashtag/ACL2020?src=hashtag_click

成为VIP会员查看完整内容
35

相关内容

ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
学界 | ACL 2019 论文收录数据官方详解!
AI科技评论
24+阅读 · 2019年7月3日
ACL 2019 接收论文榜单发布,我们做了可视化分析
机器之心
17+阅读 · 2019年6月13日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
VrR-VG: Refocusing Visually-Relevant Relationships
Arxiv
6+阅读 · 2019年8月26日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
10+阅读 · 2018年4月19日
Arxiv
3+阅读 · 2018年2月22日
VIP会员
微信扫码咨询专知VIP会员