每日论文 | EMNLP 2018最佳长短篇论文揭晓;用排序蒸馏法创建更好地推荐模型

2018 年 9 月 22 日 论智

1

How Much Reading Does Reading Comprehension Require? A Critical Investigation of Popular Benchmarks

本文获得了EMNLP 2018的最佳短篇论文。最近很多论文都在讨论阅读理解问题,其中的样本包括问题、短文、答案等多个组块,模型必须从问题和短文中结合进行推理预测。但是,虽然有很多研究,很多有关阅读理解的基本问题还未解决。在这篇论文中,我们创建了针对多个数据集的基准线,发现仅有问题或仅有文本的模型通常表现得很好。

地址:https://arxiv.org/abs/1808.04926

2


Linguistically-Informed Self-Attention for Semantic Role Labeling

本文获得了EMNLP 2018的最佳长篇论文。目前最先进的语义角色标签使用的是没有外部语言特征的深度神经网。但此前的研究表明黄金语法树可以极大地提高语义角色标签的解码。在这篇文章中,我们提出了一种神经网络模型,名为linguistically-informed self-attention,它结合了多头注意力和多任务学习,能够预测检测结果和语义角色标签,

地址:https://arxiv.org/abs/1804.08199

3


Ranking Distillation: Learning Compact Ranking Models With High Performance for Recommender System

我们提出了一种高效的新方法训练排序模型,例如推荐系统。知识蒸馏(knowledge distillation)在图像识别中取得了良好成功,我们提出了一种知识蒸馏技术学习排序问题,称为排序蒸馏(ranking distillation)。另外,我们还训练了一个更小的学生模型,学习对训练数据和更大的教师模型中的文本进行排序,

地址:https://arxiv.org/abs/1809.07428

登录查看更多
4

相关内容

自然语言处理顶级会议
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
157+阅读 · 2020年6月30日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
BERT进展2019四篇必读论文
专知会员服务
65+阅读 · 2020年1月2日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
AAAI 2020论文解读:关注实体以更好地理解文本
AI科技评论
17+阅读 · 2019年11月20日
论文解读 | 基于递归联合注意力的句子匹配模型
Arxiv
6+阅读 · 2019年8月22日
Arxiv
6+阅读 · 2019年4月8日
Doubly Attentive Transformer Machine Translation
Arxiv
4+阅读 · 2018年7月30日
Arxiv
3+阅读 · 2018年6月1日
VIP会员
相关VIP内容
近期必读的五篇KDD 2020【图神经网络 (GNN) 】相关论文_Part2
专知会员服务
157+阅读 · 2020年6月30日
【Amazon】使用预先训练的Transformer模型进行数据增强
专知会员服务
56+阅读 · 2020年3月6日
BERT进展2019四篇必读论文
专知会员服务
65+阅读 · 2020年1月2日
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
Top
微信扫码咨询专知VIP会员