如何在基于Aspect的情感分析中结合BERT和语法信息

2020 年 9 月 29 日 AINLP



作者:张义策
学校:哈尔滨工业大学(深圳)
方向:自然语言处理
知乎:https://www.zhihu.com/people/zhang-yi-ce-84
编辑:王萌 (深度学习自然语言处理公众号)


这是一篇论文阅读笔记。


Modelling Context and Syntactical Features for Aspect-based Sentiment Analysis(https://www.aclweb.org/anthology/2020.acl-main.293/


这是ACL2020上的一篇长文,作者来自澳大利亚伍伦港大学。(感觉wollongong翻译成卧龙岗更带感)


在这篇文章中,作者没有使用一个端到端的模型,而是对属性词抽取(AE)和属性级情感分类(ASC)进行独立的研究。在AE任务中,作者结合了roberta、词法信息和句法信息;在ASC任务中,作者研究了如何在预训练语言中更好地结合句子和属性词。



CSAE:在AE中结合语法信息



作者将结合语法信息的AE任务称为CSAE(contextualized syntax-based AE)。在AE中使用语法信息的工作有很多,但是结合了预训练语言模型的倒是头次见。


如下图所示,句子的表示由三部分构成,分别是BERT的输出、由词法信息得到的表示和由句法信息得到的表示。得到句子的表示后,通过一个全连接层来预测相应的BIO字标签。下面分别介绍如何编码词法信息和句法信息。



利用词法信息 作者首先通过一个词法分析的工具[1]来得到句子对应的词性标签序列,然后通过一个嵌入矩阵将词性转化为向量,接着输入到自注意力层来建模词性之间的依赖关系。这里应该使用了位置嵌入(作者没有提到,但我觉得这里应该是要的)。


利用句法信息 句法信息的利用则是参考了14年的一篇工作[2],这里介绍一下其大致思路。在skip-gram模型中,单词被用来预测上下文,上下文是通过一个窗口确定的;而此工作任务认为应该根据句法关系来确定上下文,作者将这种上下文称为Dependency-Based Contexts。具体来说,首先对给定句子进行句法解析,得到句法解析树,然后将其中的介词和关系进行合并,于是一个单词的Dependency-Based Contexts即为在树中该词的相邻节点和关系。




LCFS-ASC:在ASC更好地结合句子和属性词



最早在naacl19上有两篇工作在ASC任务中使用BERT,他们都是将句子和属性词拼接在一起送入到BERT模型中。但考虑到属性词是出现在BERT模型中的,这样的做法会有一些不妥。因此,还是在19年,有研究者提出了LCF-BERT[3]。这篇文章所提出的LCFS-ASC和LCF-BERT的思路基本相同。


不妨记句子为S,属性词为A。称[CLS]+S+[SEP]+A+[SEP]为global context,而[CLS]+S+[SEP]为local context。如下图所示,将二者分别输入到BERT模型中进行编码。为了在local context引入属性词的信息,LCF-BERT中提出了两种方法(CDM/CDW)进行Local Context Focus(LCF)。下面简单介绍一下CDW和CDM。



CDM即为context dynamic mask,是指根据与属性词之间的距离来屏蔽句子中的一些单词;而完全屏蔽某些单词可能过于绝对,因此CDW(context dynamic weighting)则是按照与属性词之间的距离为单词赋予一个0到1之间的权重。具体的细节这里不再介绍。


LCFS-ASC即local context focus on syntax - ASC,与LCF-BERT的不同之处在于,在进行CDM/CDW时所使用的单词之间的距离,不再是通过位置计算,而是两个单词在句法解析树中的距离。



实验及分析



作者仅在semeval-14的ABSA数据集上进行了实验。如下表所示,使用了词法信息和句法信息后,f1值有了较大的提升(CSAE>RoBERTa-AE),句法信息带来的提升更加明显(RoBERTa-Dep>RoBERTa-POS)。



对于ASC任务,如下表所示,使用了LCFS的策略之后,模型性能有了很大的提高,并且CDW优于CDM;LCFS稍微优于LCF。






参考



  1. ^ Universal POS tags (https://universaldependencies.org/u/pos/)
  2. ^Omer Levy and Yoav Goldberg. 2014. Dependencybased word embeddings. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 302–308. (https://www.aclweb.org/anthology/P14-2050/)
  3. ^Biqing Zeng, Heng Yang, Ruyang Xu, Wu Zhou, and Xuli Han. 2019. Lcf: A local context focus mechanism for aspect-based sentiment classification. Applied Sciences, 9(16):3389. https://www.researchgate.net/publication/335238076_LCF_A_Local_Context_Focus_Mechanism_for_Aspect-Based_Sentiment_Classification



由于微信平台算法改版,公号内容将不再以时间排序展示,如果大家想第一时间看到我们的推送,强烈建议星标我们和给我们多点点【在看】。星标具体步骤为:

(1)点击页面最上方"AINLP",进入公众号主页。

(2)点击右上角的小点点,在弹出页面点击“设为星标”,就可以啦。

感谢支持,比心



欢迎加入预训练模型交流群
进群请添加AINLP小助手微信 AINLPer(id: ainlper),备注预训练模型

推荐阅读

这个NLP工具,玩得根本停不下来

征稿启示| 200元稿费+5000DBC(价值20个小时GPU算力)

完结撒花!李宏毅老师深度学习与人类语言处理课程视频及课件(附下载)

从数据到模型,你可能需要1篇详实的pytorch踩坑指南

如何让Bert在finetune小数据集时更“稳”一点

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

文本自动摘要任务的“不完全”心得总结番外篇——submodular函数优化

Node2Vec 论文+代码笔记

模型压缩实践收尾篇——模型蒸馏以及其他一些技巧实践小结

中文命名实体识别工具(NER)哪家强?

学自然语言处理,其实更应该学好英语

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。


阅读至此了,分享、点赞、在看三选一吧🙏

登录查看更多
4

相关内容

狭义的情感分析(sentiment analysis)是指利用计算机实现对文本数据的观点、情感、态度、情绪等的分析挖掘。广义的情感分析则包括对图像视频、语音、文本等多模态信息的情感计算。简单地讲,情感分析研究的目标是建立一个有效的分析方法、模型和系统,对输入信息中某个对象分析其持有的情感信息,例如观点倾向、态度、主观观点或喜怒哀乐等情绪表达。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
35+阅读 · 2020年11月29日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
【IJCAI2020南大】上下文在神经机器翻译中的充分利用
专知会员服务
15+阅读 · 2020年8月17日
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
68+阅读 · 2020年7月12日
【斯坦福CS520】向量空间中嵌入的知识图谱推理,48页ppt
专知会员服务
101+阅读 · 2020年6月11日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【CCL 2019】结合规则蒸馏的情感原因发现方法
专知会员服务
22+阅读 · 2019年11月27日
【关系抽取】详聊如何用BERT实现关系抽取
深度学习自然语言处理
32+阅读 · 2020年3月21日
【情感分析】基于Aspect的情感分析模型总结(一)
深度学习自然语言处理
8+阅读 · 2020年3月1日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
ACL 2019 | 理解 BERT 每一层都学到了什么
AI科技评论
9+阅读 · 2019年9月4日
听说你还没读过 Bert 源码?
AINLP
7+阅读 · 2019年8月7日
如何匹配两段文本的语义?
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月21日
Arxiv
6+阅读 · 2019年8月22日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
5+阅读 · 2019年4月21日
VIP会员
相关VIP内容
专知会员服务
35+阅读 · 2020年11月29日
【EMNLP2020-清华】基于常识知识图谱的多跳推理语言生成
专知会员服务
73+阅读 · 2020年9月25日
【IJCAI2020南大】上下文在神经机器翻译中的充分利用
专知会员服务
15+阅读 · 2020年8月17日
【ACL2020】基于图神经网络的文本分类新方法
专知会员服务
68+阅读 · 2020年7月12日
【斯坦福CS520】向量空间中嵌入的知识图谱推理,48页ppt
专知会员服务
101+阅读 · 2020年6月11日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
【CCL 2019】结合规则蒸馏的情感原因发现方法
专知会员服务
22+阅读 · 2019年11月27日
相关资讯
【关系抽取】详聊如何用BERT实现关系抽取
深度学习自然语言处理
32+阅读 · 2020年3月21日
【情感分析】基于Aspect的情感分析模型总结(一)
深度学习自然语言处理
8+阅读 · 2020年3月1日
ACL 2019 | 多语言BERT的语言表征探索
AI科技评论
20+阅读 · 2019年9月6日
ACL 2019 | 理解 BERT 每一层都学到了什么
AI科技评论
9+阅读 · 2019年9月4日
听说你还没读过 Bert 源码?
AINLP
7+阅读 · 2019年8月7日
如何匹配两段文本的语义?
黑龙江大学自然语言处理实验室
7+阅读 · 2018年7月21日
Top
微信扫码咨询专知VIP会员