【ICML2020-西电】用于语言生成的递归层次主题引导RNN

2020 年 6 月 30 日 专知

《Recurrent Hierarchical Topic-Guided RNN for Language Generation》,也被今年ICML录用。该论文属于自然语言处理领域。语言模型是各种自然语言处理任务的关键组成部分,其主要目的是捕获单词序列的分布,但它们通常忽略了文档中句子的顺序和文档上下文。在语言建模中,如何寻找更好的方法,既能捕捉单词之间的顺序,又能捕捉全局语义信息是比较有挑战的问题。不同于语言模型,主题模型是用来在一系列文档中发现抽象主题的一种统计模型。主题模型可以提取具有全局语义的隐表示,但是它们通常将每个文档视为一袋单词(BoW),忽略了单词之间的顺序。


因此针对上述讨论的语言模型的问题,以及主题模型和语言模型各自的优势,本次研究提出使用深层时序主题模型来指导语言模型进行建模(rGBN-RNN)。如图1(a)所示,所提模型由两个关键部分组成:(1)一个层次递归主题模型(rGBN);(2)一个基于多层RNN的语言模型(RNN)。主题模型用于捕获跨文档的全局语义和文档中句子间的长期依赖关系,而语言模型用于学习句子中单词之间的局部语法关系。

       

图1(a)rGBN-RNN生成模型     (b)RNN语言模型


(c)rGBN-RNN模型的总体结构,由解码器(rGB和语言模型)和编码器(变分时序推理)两部分构成,红色箭头表示主题权向量的推理,黑色箭头表示数据生成。


如图1(b)所示,所提模型将层次时序的主题权重向量作为额外输入集成到语言模型中。因此不同于传统的基于RNN的语言模型,所提出的模型不仅捕获句子内的单词依赖关系,而且捕获句子之间的相关性,同时利用主题模型考虑了文本的全局语义信息。为了进行推理,本次工作提出了随机梯度马尔科夫链蒙特卡洛和递归变分自编码的混合算法。图1(c)展示了rGBN-RNN的整个框架,包含了生成模型(编码器)和推理模型(解码器)。如图2所示,我们利用新闻数据训练三层rGBN-RNN,并将学习到的层次主题以及这些主题指导生成的句子进行了可视化。一方面,rGBN-RNN能够捕捉到不同层次主题之间可解释的层次关系,以及同一层次主题之间的时间关系(如图中彩色实线框所示)。另一方面,如图中虚线框所示,依据一个或者多个主题生成的句子大部分与相应主题高度相关。这种相关不一定在关键字的相似,更多是语义内容的接近,表明层次时序的主题能够成功地引导语言模型。这些观察结果表明,rGBN-RNN能够成功地捕获自然语言生成所需要的语法和全局语义信息。此外,模型还能生成语法正确、语义连贯的句子和段落。

图1(三层rGBN-RNN基于APNEWS(新闻)数据集推断出的主题,以及在主题指导下生成的句子。由上至下,第3层、第2层、第1层主题分别用橙色、黄色和蓝色实线框表示,生成的句子用虚线框表示,虚线框中标注了生成句子所用的主题索引号。图的底部是由不同层次的主题组合生成的句子。


来源链接:

https://mp.weixin.qq.com/s/_KlJzuBdbaGotoCRpj82ag


https://arxiv.org/abs/1912.10337


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“RGBN” 可以获取《ICML2020用于语言生成的递归层次主题引导RNN》专知下载链接索引

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取5000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“阅读原文”,了解使用专知,查看获取5000+AI主题知识资源
登录查看更多
1

相关内容

RNN:循环神经网络,是深度学习的一种模型。
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
37+阅读 · 2020年6月22日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
SFFAI 37 报名通知 | 机器翻译专场之同步双向与多语言机器翻译
人工智能前沿讲习班
3+阅读 · 2019年6月25日
论文浅尝 | 知识图谱问答中的层次类型约束主题实体识别
深度学习基础之LSTM
全球人工智能
28+阅读 · 2017年12月18日
RNN | RNN实践指南(1)
KingsGarden
21+阅读 · 2017年4月4日
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
7+阅读 · 2018年4月21日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
7+阅读 · 2018年1月30日
VIP会员
相关VIP内容
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
【ICML2020-浙江大学】对抗性互信息的文本生成
专知会员服务
43+阅读 · 2020年7月4日
[ICML2020]层次间消息传递的分子图学习
专知会员服务
33+阅读 · 2020年6月27日
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
74+阅读 · 2020年6月25日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
37+阅读 · 2020年6月22日
【IJCAI2020-CMU】结构注意力的神经抽象摘要
专知会员服务
21+阅读 · 2020年4月23日
【MIT深度学习课程】深度序列建模,Deep Sequence Modeling
专知会员服务
77+阅读 · 2020年2月3日
相关论文
Do RNN and LSTM have Long Memory?
Arxiv
19+阅读 · 2020年6月10日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Sparse Sequence-to-Sequence Models
Arxiv
5+阅读 · 2019年5月14日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
7+阅读 · 2018年4月21日
Arxiv
6+阅读 · 2018年2月24日
Arxiv
7+阅读 · 2018年1月30日
Top
微信扫码咨询专知VIP会员