该栏目每周将推荐若干篇由师生精心挑选的前沿论文,分周三、周五两次推送。
本次推荐了关于事件抽取、image caption、对象级情感分析的三篇论文。
1
推荐组:SP
推荐人:孔德申(研究方向:社会预测)
论文题目:Event Extraction via Dynamic Multi-Pooling Convolutional Neural Networks
作者:Yubo Chen, Liheng Xu, Kang Liu, Daojian Zeng and Jun Zhao
出处:ACL 2015
论文主要相关:事件抽取
简评:在ACE的事件抽取任务中,传统的方法依赖于精巧的特征设计以及复杂的NLP工具,不仅浪费了大量的人力,而且容易产生级联误差和数据稀疏的问题,泛化能力也不是很强。这篇文章提出了一种新的事件抽取的方法,旨在通过用神经网络来自动的抽取lexical-level级别以及sentence-level级别的特征,而不使用任何复杂的NLP工具。值得一提的是,在针对sentence-level级别的特征进行表示的过程中,创新性的采用了“动态多池化卷积神经网络”(DMCNN,是文中提出的一种传统CNN的改进网络)。传统CNN在对句子进行信息表示时,最大池化操作会针对每一个过滤器卷积得到的结果学习到一个最重要的特征表示,但是在事件抽取的任务中,一个句子可能会有多个事件,而传统的CNN只能学习到该句的一个事件表示,从而丢失其他事件包含的重要信息。DMCNN通过将一个句子根据事件中的候选元素以及预测得到的触发词将句子分成多段,之后对每一个分段进行最大池化操作,从而保留了多个事件的信息。这篇文章通过使用神经网络在不用人工干预的情况下,针对事件抽取任务达到了令人瞩目的效果。
论文链接:
http://www.nlpr.ia.ac.cn/cip/yubochen/yubochenPageFile/acl2015chen.pdf
2
推荐组:SA
推荐人:丛大玮(研究方向:情感分析)
论文题目:Learning Latent Opinions for Aspect-level Sentiment Classification
作者:Bailin Wang, Wei Lu
出处:AAAI 2018
论文主要相关:对象级情感分析
简评:对象级别的情感分析旨在检测对于句子中特定评价对象表达的情绪。通常来说,句子中对于一个评价对象的情感极性取决于该句中和评价对象相关的情感表达部分,那么利用这部分信息就可以更好地进行情感极性分类。这篇文章从这个角度出发,提出了使用LSTM加CRF的模型标注出句子中和情感表达相关的部分,对于相关部分的标注可以理解成一种attention,来有效地捕捉到评价对象和带有情感的表达之间的结构依赖关系,并对相关的情感表达做分类。此前LSTM和CRF模型通常用于序列标注的任务中,这篇文章的创新之处在于使用CRF输出的0-1标签结果作为一种segmentation attention,抽取出相关的情感表达。在损失函数中,通过对CRF标注的结果的连续性和长度加以约束,模型会尽量在句子中选择连续且较短的范围。这里使用损失函数约束的做法和Learning Structured Representation for Text Classification via Reinforcement Learning一文较为相似。该方法在SemEval 任务和Twitter中多种语言的评论任务上取得了目前最好的效果。
论文链接:
http://www.statnlp.org/wp-content/uploads/papers/2018/Learning-Latent/absa.pdf
源代码链接:
https://github.com/berlino/SA-Sent
3
推荐人:孙卓(研究方向:文本生成)
论文题目: Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning
作者: Jiasen Lu, Caiming Xiong, Devi Parikh, Richard Socher
出处: CVPR 2017
论文主要相关:image caption
简评:多数传统的attention-encoder-decoder模型要求在生成每个词的时候都需要加入图片的visual attention,然而不是所有的词都对应着图片信息。一些类似于"the"、"of"的单词并不需要图片的信息,一些由语言相关性得到的单词,比如跟在"perch"后的"on"、"top"(栖息/停留在...之上),也与图片信息关系很小。以上单词称为non-visual words。这些non-visual words的生成的梯度可能会误导模型,甚至削弱visual attention在引导caption生成的整体效果。为了解决这一问题,这篇文章提出了一种新颖的基于“视觉哨兵”的自适应的attention模型,每一个time step模型都要自主判断应该关注图像信息或是语言模型,当需要关注视觉信息时,模型需要知道该关注的图像区域。这个方法以显著的优势达到了state-of-the-art。这篇文章基于的是传统的visual attention方法,主要对其进行改进。 作者引入了一种新的LSTM扩展,它将产生一个额外的visual sentinel哨兵向量(而不是一个隐层状态),论文结构清晰严谨、易于理解,其思考方式值得借鉴。
论文链接:
https://arxiv.org/pdf/1612.01887.pdf
源代码链接:
https://github.com/jiasenlu/AdaptiveAttention
往期链接:
点击文末“阅读原文”即可查看完整赛尔推荐目录
(自然语言推理、文本蕴含识别、句子表示、文本摘要、序列标注、数据稀疏、多任务学习)
(词向量、RNN计算复杂性、事件检测、推敲网络、编码器-解码器、序列生成)
(语言模型、对话生成、情感因素、任务型对话、用户模拟、问答系统)
(推荐系统、情感分析、序列生成)
本期责任编辑: 赵森栋
本期编辑: 孙 卓
“哈工大SCIR”公众号
主编:车万翔
副主编: 张伟男,丁效
责任编辑: 张伟男,丁效,赵森栋,刘一佳
编辑: 李家琦,赵得志,赵怀鹏,吴洋,刘元兴,蔡碧波,孙卓
长按下图并点击 “识别图中二维码”,即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公共号:”哈工大SCIR” 。