题目:Conversational Graph Grounded Policy Learning for Open-Domain Conversation Generation
作者:徐俊,王海峰,牛正雨,吴华,车万翔,刘挺
摘要:我们提出用图的形式捕捉对话转移规律作为先验信息,用于辅助开放域多轮对话策略学习。基于图,我们设计策略学习模型指导更加连贯和可控的多轮对话生成。首先,我们从对话语料库中构造一个对话图(CG),其中顶点表示“what to say”和“how to say”,边表示对话当前句与其回复句之间的自然转换。然后,我们提出了一个基于CG的策略学习框架,该框架通过图形遍历进行对话流规划,学习在每轮对话时从CG中识别出哪个顶点和如何从该顶点来指导回复生成。我们可以有效地利用CG来促进对话策略学习,具体而言:(1)可以基于它设计更有效的长期奖励;(2)它提供高质量的候选操作;(3)它让我们对策略有更多的控制。我们在两个基准语料库上进行了实验,结果证明了本文所提框架的有效性。
题目:Document Modeling with Graph Attention Networks for Multi-grained Machine Reading Comprehension
作者:郑博,文灏洋,梁耀波,段楠,车万翔,Daxin Jiang,周明,刘挺
摘要:自然问答(Natural Question)是一个新的具有挑战性的机器阅读理解数据集,该数据集对文档提供两个粒度的答案,分别是长答案(通常为一个段落)以及短答案(长答案内部一个或多个实体)。尽管现有的阅读理解方法在该数据集上是有效的,但是它们将两个粒度的答案视为两个独立的任务进行训练,并且忽略了答案之间的依赖关系。为了解决这个问题,我们提出了一种新的多粒度机器阅读理解框架,按照文档的层次结构以四个粒度进行建模,分别是文档级、段落级、句子级以及词级别。我们利用图注意力网络(Graph Attention Networks)获取不同级别的表示并使得它们可以被同时学习。长短答案可以分别从段落级以及词级别表示中提取,通过这种方式,我们可以建模两种粒度答案之间的关系,使它们互相提供信息。我们联合训练这两个子任务,实验结果表明,我们的方法是有效的,在长短答案评价标准上都优于之前的系统。
题目:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog
作者:覃立波,徐啸,车万翔,张岳,刘挺
摘要:最近,端到端的任务型对话系统的研究已经取得了巨大的成功。但是,大多数神经网络模型都依赖于大量的训练数据,这些数据往往局限于一些特定的领域,例如导航和查询天气等领域。这使得现有模型很难泛化到标注数据以外的新领域下。并且,如何有效利用源领域的标注数据来提升较少标注数据的新领域,或者是没有标注数据的新领域的性能,这样的工作很少。因此,我们首次在端到端任务型对话系统中提出一个shared-private 框架去显式学习领域特有的和领域共享的知识。此外,我们提出了一种新颖的动态融合网络(DF-Net)来动态探索目标领域与每个领域之间的相关性。在两个公开的数据集上的实验结果表明我们的模型不仅达到SOTA性能,并且,在few-shot的场景下,我们模型的性能要比之前的最佳模型平均高13.9% F1 score,这进一步验证了我们模型的可迁移性。
题目:Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network
作者:侯宇泰,车万翔,赖勇魁,周之涵,刘一佳,刘晗,刘挺
摘要:在本文中,我们研究了少样本槽位提取问题(Few-shot Slot-Tagging)。与其他广泛研究的少样本问题相比,少样本槽位提取面临着“建模标签间依赖关系”的独特挑战。但是,由于不同领域间存在标签集的差异,我们很难将先前学习的标签依赖应用于新的领域。为了解决这个问题,我们在CRF中引入了折叠的依赖关系迁移机制(Collapsed Dependency Transfer),通过建模抽象的标签依赖关系来实现这种迁移。在小样本和元学习的情景下,CRF的发射概率可以用利用度量学习得到:计算为单词与每个标签类别的相似度。为了计算这种相似性,我们在近期的图像小样本分类模型TapNet基础上,利用标签名称语义来表示标签,提出了一种标签增强的任务自适应投影网络(L-TapNet)。实验结果表明,我们的模型在1-shot实验中以14.14 F1的分数明显优于最强现有相关系统。
题目:Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation
作者:宋皓宇,王琰,张伟男,刘晓江,刘挺
摘要:在对话过程中保持一致的角色属性信息对人类来说是很容易的,但对机器来说,这仍然是一项有待探索的任务。近几年,基于角色属性的对话生成任务被提出来,旨在通过在对话生成模型中加入显式的角色文本来解决属性一致性问题。虽然现有的基于角色的对话生成模型在生成类似人类的回复上取得了成功,但是它们的单阶段解码框架很难避免生成不一致的角色词。在这项工作中,我们提出了一个三阶段的对话生成框架。该框架使用生成-删除-重写机制从生成的原型回复中删除不一致的词语,然后进一步将其改写为属性信息一致的回复。我们通过人工评价和自动指标进行了评估。在PersonaChat数据集上的实验表明,我们的方法获得了非常好的性能。
题目:Towards Conversational Recommendation over Multi-Type Dialogs
作者:柳泽明,王海峰,牛正雨,吴华,车万翔,刘挺
摘要:真实人机对话,涉及多类型对话(闲聊、任务型对话、问答等),如何自然地融合多类型对话是一个重要的挑战,为应对这个挑战,我们提出一个新的任务——多类型对话中的对话式推荐,期望Bot能够主动且自然地将对话从非推荐对话(比如『问答』)引导到推荐对话,然后基于收集到的用户兴趣及用户实时反馈通过多次交互完成最终的推荐目标。为便于研究这个任务,我们标注了一个包含多种对话类型、多领域和多种对话逻辑(考虑用户实时反馈)的human-to-human对话式推荐数据集MultiRec(1万个对话和16.4万个utterance)。MultiRec包含多对推荐寻求者(user)和推荐者(bot)的多个序列对话,在每个对话中,推荐者使用丰富的交互行为主动引导一个多类型对话不断接近推荐目标。这个数据集允许我们系统地调查整个问题的不同部分,例如,如何自然地引导对话,如何与用户交互以便于推荐。最后,我们使用一个具有多对话目标驱动策略机制的对话生成框架在MultiRec上建立基线结果,表明了该数据集的可用性,并为将来的研究设定了基线。
本期编辑:赖勇魁