论文题目: Conversation Structure Modeling Using Masked Hierarchical Transformer

摘要: 对话结构对于理解对话动态的本质以及为许多下游应用程序提供功能(例如对话摘要)很有用。在这项工作中,我们将对话结构建模的问题定义为识别对话中每个话语都对其做出响应。 以前的工作通常会用一组语音来决定一个语音是否是另一个语音的母体。我们认为,整个对话历史是做出准确预测的非常重要的信息来源。因此,我们设计了一种新颖的机制,并利用变换器模型来汇总所有历史以预测话语。我们的实验是在Reddit数据集(Zhang,Culbertson和Paritosh 2017)和Ubuntu IRC数据集(Kummerfeld et al.2019)上进行的。此外,我们还报告了来自Reddit平台的新的更大语料库的实验,并发布了该数据集。

成为VIP会员查看完整内容
4

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
近期必读的5篇顶会WWW2020【推荐系统】相关论文-Part2
专知会员服务
69+阅读 · 2020年4月7日
自动结构变分推理,Automatic structured variational inference
专知会员服务
39+阅读 · 2020年2月10日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
【NeurIPS2019】图变换网络:Graph Transformer Network
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
微软机器阅读理解在一场多轮对话挑战中媲美人类
微软丹棱街5号
19+阅读 · 2019年5月14日
论文浅尝 | 使用循环神经网络的联合事件抽取
开放知识图谱
25+阅读 · 2019年4月28日
Transformer-XL:释放注意力模型的潜力
谷歌开发者
31+阅读 · 2019年2月19日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
Arxiv
6+阅读 · 2020年4月14日
Heterogeneous Graph Transformer
Arxiv
27+阅读 · 2020年3月3日
Arxiv
13+阅读 · 2019年11月14日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Arxiv
3+阅读 · 2018年5月11日
Arxiv
5+阅读 · 2018年1月16日
VIP会员
相关VIP内容
近期必读的5篇顶会WWW2020【推荐系统】相关论文-Part2
专知会员服务
69+阅读 · 2020年4月7日
自动结构变分推理,Automatic structured variational inference
专知会员服务
39+阅读 · 2020年2月10日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
59+阅读 · 2019年10月17日
微信扫码咨询专知VIP会员