点击上方,选择星标或置顶,每天给你送干货!
阅读大概需要9分钟
跟随小博主,每天进步一丢丢
文章借鉴了来自QA领域的记忆网络解决ABSA问题。Memory Network提出的目的之一就是为了解决RNN、LSTM等网络的记忆能力较差的问题。它维护了一个外部的记忆单元用于存储之前的信息,而不是通过cell内部的hidden state。如果有同学不太熟悉Memory Network,后续会整理一篇更为详细的解读,稍安勿躁。
整体解决方案如下图所示
输入是一个原始句子,需要将其映射到向量空间后输入到模型中。常规操作,将context word和aspect word分别用向量表示
包括了两部分:content attention和location attention
就是传统的Key Value Query的形式
我们从直观上来看,通常情况下,与aspect word距离较近的context word对于相应aspect的情感倾向的判断更重要。于是就有了location attention。所谓的location attention其实就是把context word的位置信息加入到memory中。文中定义了四种方式来encode位置信息:
论文采用多层注意力机制结合记忆网络去捕获句子中target word 与context word之间的联系。整体框架如下,主要分为
在上一篇的论文中的记忆网络只是简单地将word embedding作为memory,并不能准确识别例如Except Patrick, all other actors don’t play well
这类的实体情感。于是在本文中引入双向LSTM来捕获这之间的深层次关联。如果有L层BLSTM叠加,最终得到的memory vector表示为
当然,作者认为target word在输入句子中的位置信息也非常重要,更靠近target word的context word应该具有更高的重要性。
这一部分的目的就是利用之前计算好的memory来表示出情感,然后用于分类。和上一篇论文一样,使用GRU和堆叠的attention。
针对ABSA任务,之前研究效果较好的模型都是采用了LSTM+attention机制,这类模型过于复杂且参数较多训练起来比较费时。
❝LSTM processes one token in a step. Attention layer involves exponential operation and normalization of all alignment scores of all the words in the sentence. Moreover, some models needs the positional information between words and targets to produce weighted LSTM, which can be unreliable in noisy review text.
因此作者提出一种基于门控机制的可并行训练的CNN模型。
Aspect Level Sentiment Classification with Deep Memory Network(Tang/EMNLP2016): https://arxiv.org/abs/1605.08900
[2]Memory Networks论文串烧: https://blog.csdn.net/Kaiyuan_sjtu/article/details/90489213
[3]CODE HERE: https://github.com/ganeshjawahar/mem_absa
[4]Recurrent Attention Network on Memory for Aspect Sentiment Analysis(Tencent AI Lab/EMNLP 2017): https://www.aclweb.org/anthology/D17-1047
[5]Aspect Based Sentiment Analysis with Gated Convolutional Networks(Xue/ACL2018): https://www.aclweb.org/anthology/P18-1234
[6]CODE HERE: https://github.com/wxue004cs/GCAE
- END -