Hierarchical structures exist in both linguistics and Natural Language Processing (NLP) tasks. How to design RNNs to learn hierarchical representations of natural languages remains a long-standing challenge. In this paper, we define two different types of boundaries referred to as static and dynamic boundaries, respectively, and then use them to construct a multi-layer hierarchical structure for document classification tasks. In particular, we focus on a three-layer hierarchical structure with static word- and sentence- layers and a dynamic phrase-layer. LSTM cells and two boundary detectors are used to implement the proposed structure, and the resulting network is called the {\em Recurrent Neural Network with Mixed Hierarchical Structures} (MHS-RNN). We further add three layers of attention mechanisms to the MHS-RNN model. Incorporating attention mechanisms allows our model to use more important content to construct document representation and enhance its performance on document classification tasks. Experiments on five different datasets show that the proposed architecture outperforms previous methods on all the five tasks.


翻译:语言和自然语言处理(NLP)任务都存在等级结构。 如何设计RNN来学习自然语言的等级代表仍然是一项长期的挑战。 在本文件中,我们定义了两种不同的边界类型,分别称为静态和动态边界,然后用它们来构建一个多层次的等级结构,用于文件分类任务。特别是,我们侧重于三层的等级结构,既有静态的单词和句层,也有动态的短语层。 LSTM 细胞和两个边界探测器被用来实施拟议的结构,而由此产生的网络被称为“混合等级结构常态神经网络 ” ( MHS-RNN) 。我们进一步增加了MHS-RNN模式的三层关注机制。整合关注机制使我们的模式能够使用更为重要的内容构建文件代表并提高其在文件分类任务上的绩效。在五个不同的数据集上进行的实验表明,拟议的结构超越了所有五项任务的以往方法。

0
下载
关闭预览

相关内容

循环神经网络(RNN)是一类人工神经网络,其中节点之间的连接沿时间序列形成有向图。 这使其表现出时间动态行为。 RNN源自前馈神经网络,可以使用其内部状态(内存)来处理可变长度的输入序列。这使得它们适用于诸如未分段的,连接的手写识别或语音识别之类的任务。
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
Facebook PyText 在 Github 上开源了
AINLP
7+阅读 · 2018年12月14日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
13+阅读 · 2019年11月14日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
5+阅读 · 2018年2月26日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员