哈工大SCIR六篇长文被COLING 2018录用

2018 年 5 月 17 日 哈工大SCIR 哈工大SCIR

COLING 2018, the 27th International Conference on Computational Linguistics将于2018820日至26日在美国圣达菲举行。COLING是自然语言处理领域的重要国际会议,每两年举办一次。


哈尔滨工业大学社会计算与信息检索研究中心共有6篇论文COLING 2018录用,祝贺大家!下面是论文列表及介绍:


An Attention-based Neural Network for Chinese Zero Pronoun Resolution.

作者:尹庆宇,张宇,张伟男,刘挺,王洋(王威廉)


简介:传统的关于零指代的方法提出了多种关于先行语和零代词的表示方法。一般的,一个零代词的上下文信息被用来表示这个空缺。为了更好的表示零代词,我们利用自我注意力的方式,通过注意力模型来获取更有表示性信息的上下文信息。我们在中文OntoNotes 5.0数据集上的实验表明我们的方法达到了最先进的水平。


Context-Sensitive Generation of Open-Domain Conversational Responses.

作者:张伟男,崔一鸣,汪意发,朱庆福,李凌志,周连强,刘挺


简介:对话生成(Conversational Response Generation)是对话领域中的一个重要任务。在单轮对话生成任务中,众多前人工作在技术上取得了不断突破。然而,人类的交流及对话仍然是一个上下文相关的过程(Context-Sensitive Process)。在本文中,我们提出了一种面向开放域的对话生成模型,其中主要包含两种不同的注意力机制:静态注意力以及动态注意力,从而实现对历史上下文进行建模,并对每个Utterance的重要性进行动态调整。我们在Ubuntu以及OpenSubtitles数据集上验证了所提出的模型,并且在自动评测和人工评测中均超过了基线系统。


Generating Reasonable and Diversified Story Ending Using Sequence to Sequence Model with Adversarial Training.

作者:李忠阳,丁效,刘挺


简介:故事生成是人工智能领域一个非常具有挑战性的问题。给定一个四句话组成的故事上下文,本文探索了如何生成一个高质量的故事结尾。具体地,我们将生成对抗的思想借鉴到经典的端到端模型中,使用对抗训练增强的端到端模型来生成逻辑合理且更加多样化的故事结尾。相比仅仅使用最大似然训练的端到端模型,对抗增强的端到端模型取得了21.1%的人工打分提升,以及126.9%bigram多样性打分提升。在Story Cloze Test任务中,我们的方法也取得了不错的性能。


Learning Target-Specific Representations of Financial News Documents For Cumulative Abnormal Return Prediction.

作者:段俊文,张岳,丁效,Ching-Yun Chang,刘挺


简介:互联网上的文本是金融市场建模的重要数据源。早期的统计方法依赖于人工定义的特征来捕获词汇、情感和事件信息,这些信息容易受到特征稀疏性的影响。最近的工作已经考虑对新闻标题和摘要进行表示学习。与新闻标题相比,完整的文档可以包含更多的潜在有用的信息,但也比事件和句子的有着更多噪声和不相关信息,因此建模难度更大。为了对与公司相关的多篇新闻文档进行建模,对我们提出了一种新的目标依赖的新闻文档表示模型。该模型使用目标敏感新闻摘要的表示来衡量新闻中句子的重要性,从而选择和组合最有意义的句子来进行建模。在累积超额收益上的预测结果表明,相比于摘要和标题,基于文档表示的方法更有效。同时,相对于句子级的方法,我们的模型能更好地组合来自多个文档源的信息。


Sequence-to-Sequence Data Augmentation for Dialogue Language Understanding.

作者:侯宇泰,刘一佳,车万翔,刘挺


简介:在构建一个新领域的任务型对话系统时,开发者往往会受到数据不足的困扰,一个解决思路是数据增强,即在已有训练数据的基础上生成新的训练数据以提升模型效果。为此,我们研究了任务型对话系统中自然语言理解任务的数据增强问题。与之前的工作相比,我们考虑语句间具有的相同语义关系,提出了基于Seq2Seq生成的数据增强框架。由于使用多样化的增强数据训练有助于改善语言理解模块的性能,我们创新地将多样性等级结合到语句表示中,以使模型生成多样化的句子。我们在ATIS数据集以及斯坦福多轮多邻域对话数据集上的slot filling实验结果显示,当仅有数百个样例的训练集时,我们的框架在F-score上分别实现了6.3810.04的显著提升。案例研究也证实我们的方法能够生成多样化的句子。


Sequence-to-Sequence Learning for Task-oriented Dialogue with Dialogue State Representation.

作者:文灏洋,刘一佳,车万翔,覃立波,刘挺


简介:在面向任务型对话中,传统流水线模型需要显式建模对话状态和动作空间来对知识库检索。而序列到序列模型可以直接将对话历史映射成为一个回复,但没有建模知识库检索的过程。我们通过在序列到序列模型引入对话状态的表示来综合这两类方法的优点。我们利用对话状态的表示完成了对知识库的检索,通过强化学习辅助训练检索过程,并利用拷贝机制完成在生成时对知识库中实体的直接获取。通过在Stanford多领域多轮对话数据上的实验,我们验证了模型的有效性。


本期责任编辑:  赵森栋

本期编辑:  赵得志



“哈工大SCIR”公众号

主编:车万翔

副主编: 张伟男,丁效

责任编辑: 张伟男,丁效,赵森栋,刘一佳

编辑: 李家琦,赵得志,赵怀鹏,吴洋,刘元兴,蔡碧波,孙卓


长按下图并点击 “识别图中二维码”,即可关注哈尔滨工业大学社会计算与信息检索研究中心微信公共号:”哈工大SCIR” 。

登录查看更多
7

相关内容

ACL2020接受论文列表公布,571篇长文208篇短文
专知会员服务
66+阅读 · 2020年5月19日
【哈工大】基于抽取的高考作文生成
专知会员服务
36+阅读 · 2020年3月10日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
六篇 CIKM 2019 必读的【图神经网络(GNN)】长文论文
专知会员服务
37+阅读 · 2019年11月3日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
哈工大SCIR多名师生参加COLING 2018
哈工大SCIR
10+阅读 · 2018年9月1日
计算所网络数据实验室5篇论文被ACL2018、IJCAI-ECAI 2018录用
中国科学院网络数据重点实验室
9+阅读 · 2018年5月3日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
我中心6篇长文被IJCAI-ECAI 2018录用
哈工大SCIR
9+阅读 · 2018年4月17日
Arxiv
4+阅读 · 2019年12月2日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年5月11日
VIP会员
相关VIP内容
相关资讯
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
哈工大SCIR两篇论文被IJCAI 2019录用
哈工大SCIR
7+阅读 · 2019年5月11日
哈工大SCIR多名师生参加COLING 2018
哈工大SCIR
10+阅读 · 2018年9月1日
计算所网络数据实验室5篇论文被ACL2018、IJCAI-ECAI 2018录用
中国科学院网络数据重点实验室
9+阅读 · 2018年5月3日
我中心3篇长文被ACL 2018录用
哈工大SCIR
5+阅读 · 2018年4月24日
我中心6篇长文被IJCAI-ECAI 2018录用
哈工大SCIR
9+阅读 · 2018年4月17日
相关论文
Arxiv
4+阅读 · 2019年12月2日
Visualizing and Measuring the Geometry of BERT
Arxiv
7+阅读 · 2019年10月28日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
21+阅读 · 2018年8月30日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
3+阅读 · 2018年5月11日
Top
微信扫码咨询专知VIP会员