【EMNLP2019】最新5篇论文推荐,BERT,对话系统,知识图谱,注意力机制等

2019 年 8 月 17 日 专知

导读

自然语言处理领域顶级会议EMNLP2019近日公布会议接收论文列表,会议将于十一月在中国香港召开。本文简要介绍5篇EMNLP2019接收论文,各位读者先睹为快。


编译 | Xiaowen

01

可视化理解BERT
Visualizing and Understanding the Effectiveness of BERT
北航,微软


摘要 :语言模型预训练(如BERT)在许多NLP任务中取得了显著的结果。然而,还不清楚为什么预训练-然后微调的模式可以改善不同任务的性能和泛化能力。本文提出了对特定数据集微调的损失显示和优化轨迹进行可视化的方法。首先,我们发现,预训练在下游任务中到了一个不错的初始点,这与从头开始的训练相比有了更好的优化。我们还证明了微调的过程对过拟合是鲁棒的,即使BERT对于下游任务是高度超参数化的。第二,可视化结果表明,由于训练损失面与泛化误差面的一致性和平坦、宽的最优性,使得微调BERT具有较好的泛化效果。第三,在微调过程中,BERT的较低层更不稳定,这意味着接近输入的层能够更好地学习语言的可转移表示。

论文地址 :https://arxiv.org/pdf/1908.05620.pdf








02

基于知识的推荐对话系统
Towards Knowledge-Based Recommender Dialog System
清华大学,阿里巴巴


摘要在本文中,我们提出了一种新的端到端框架KBRD,一种基于知识的推荐对话系统。它集成了推荐系统和对话生成系统。对话系统通过引入基于知识的用户偏好信息来提高推荐系统的性能,推荐系统通过提供推荐感知的词汇偏误来提高对话生成系统的性能。实验结果表明,该模型在评价对话生成和推荐方面均优于Baseline方法。一系列的分析表明,这两种任务可以相互促进,引入的知识弥补了两种任务之间的差距。

论文地址 :https://arxiv.org/pdf/1908.05391.pdf





03

事实验证模型
Towards Debiasing Fact Verification Models
MIT


摘要事实验证需要在证据的上下文中进行验证。然而,本文显示,在流行的FEVER数据集中,不一定是这种情况。只有claim分类器与顶部证据evidence感知模型进行竞争。本文对这一现象的成因进行了调查,提出了仅基于claim来预测标签的强提示,而不考虑任何evidence。我们创建了一个避免这些特质的验证集。在对该测试集进行评估时,已训练模型的性能显著下降。因此,我们引入了一种正则化方法,减轻了对训练数据中的偏差的影响,得到了新创建的测试集的改进。这一工作是对事实验证模式中的推理能力进行更合理的评估的一个步骤。


论文地址:https://arxiv.org/pdf/1908.05267.pdf





04

注意力机制并非不是解释
Attention is not not Explanation
佐治亚理工学院


摘要注意力机制在NLP系统中起着核心作用,特别是在递归神经网络(RNN)模型中。最近,人们越来越关注这些模块提供的中间表示是否可以用来解释模型预测的推理,从而对模型的决策过程有深入的了解。最近的一篇论文声称“注意力不是解释”  Attention is not not Explanation ( Jain和Wallace,2019年)。 我们对这项工作的许多假设提出了质疑,认为这种说法取决于一个人对解释的定义,而且测试需要考虑到模型的所有要素,使用严格的实验设计。 我们提出了四个替代测试,以确定何时/是否可以将注意力作为解释: 一个简单的统一权重Baseline; 一个基于多个随机种子运行的方差校准; 一个使用预训练模型的冻结权重的诊断框架; 以及一个端到端对抗性注意训练协议。 每个模型都允许对RNN模型中的注意力机制进行有意义的解释。 我们发现,即使可以找到可靠的对抗性分布,它们也不能很好地进行简单的诊断,这表明先前的工作并不能证明注意机制对可解释性的有用性。


论文地址:https://arxiv.org/pdf/1908.04626.pdf








05

用于阅读理解的多类型多跨度网络
A Multi-Type Multi-Span Network for Reading Comprehension that Requires Discrete Reasoning
国防科学技术大学


摘要目前阅 读理解和问答领域取得了迅速进展,在一些简化的场景中,有几个系统实现了与人相近的水平。然而,当这些模型被应用到更现实的场景中时,这些模型的性能会显著下降,比如答案涉及各种类型,多个文本字符串是正确的答案,或者需要离散推理能力时。本文介绍了一种多类型的多跨度网络(MTMSN),这是一种神经阅读理解模型,它结合了一个多类型的答案预测器,旨在支持各种类型的答案(如广度、计数、否定和算术表达式),并采用多跨度提取方法动态地产生一个或多个文本跨度。此外,还提出了一种算法表达式重路由机制来对候选表达式进行排序,以进一步确定预测结果。实验表明,我们的模型在DROP隐藏测试集上达到了79.9F1,创造了新的最先进的结果。源代码将发布在https://github.com/huminghao16/MTMSN。 

论文地址 :https://arxiv.org/pdf/1908.05514.pdf






-END-

专 · 知


专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎登录www.zhuanzhi.ai,注册登录专知,获取更多AI知识资料!

欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程视频资料和与专家交流咨询

请加专知小助手微信(扫一扫如下二维码添加),加入专知人工智能主题群,咨询技术商务合作~

专知《深度学习:算法到实战》课程全部完成!560+位同学在学习,现在报名,限时优惠!网易云课堂人工智能畅销榜首位!

点击“阅读原文”,了解报名专知《深度学习:算法到实战》课程

登录查看更多
32

相关内容

自然语言处理顶级会议
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
167+阅读 · 2020年2月13日
BERT进展2019四篇必读论文
专知会员服务
64+阅读 · 2020年1月2日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
5篇顶会论文带你了解知识图谱最新研究进展
PaperWeekly
14+阅读 · 2019年2月21日
自然语言处理中注意力机制综述
AINLP
27+阅读 · 2019年1月21日
论文动态 | 基于知识图谱的问答系统关键技术研究 #01
开放知识图谱
16+阅读 · 2017年8月3日
Arxiv
19+阅读 · 2019年11月23日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Arxiv
13+阅读 · 2018年4月18日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关VIP内容
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
167+阅读 · 2020年2月13日
BERT进展2019四篇必读论文
专知会员服务
64+阅读 · 2020年1月2日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
【论文笔记】基于BERT的知识图谱补全
专知
116+阅读 · 2019年9月15日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
10+阅读 · 2019年6月16日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
5篇顶会论文带你了解知识图谱最新研究进展
PaperWeekly
14+阅读 · 2019年2月21日
自然语言处理中注意力机制综述
AINLP
27+阅读 · 2019年1月21日
论文动态 | 基于知识图谱的问答系统关键技术研究 #01
开放知识图谱
16+阅读 · 2017年8月3日
相关论文
Arxiv
19+阅读 · 2019年11月23日
Next Item Recommendation with Self-Attention
Arxiv
5+阅读 · 2018年8月25日
Arxiv
13+阅读 · 2018年4月18日
Arxiv
5+阅读 · 2017年11月13日
Top
微信扫码咨询专知VIP会员