How Much Reading Does Reading Comprehension Require? A Critical Investigation of Popular Benchmarks
本文获得了EMNLP 2018的最佳短篇论文。最近很多论文都在讨论阅读理解问题,其中的样本包括问题、短文、答案等多个组块,模型必须从问题和短文中结合进行推理预测。但是,虽然有很多研究,很多有关阅读理解的基本问题还未解决。在这篇论文中,我们创建了针对多个数据集的基准线,发现仅有问题或仅有文本的模型通常表现得很好。
地址:https://arxiv.org/abs/1808.04926
Linguistically-Informed Self-Attention for Semantic Role Labeling
本文获得了EMNLP 2018的最佳长篇论文。目前最先进的语义角色标签使用的是没有外部语言特征的深度神经网。但此前的研究表明黄金语法树可以极大地提高语义角色标签的解码。在这篇文章中,我们提出了一种神经网络模型,名为linguistically-informed self-attention,它结合了多头注意力和多任务学习,能够预测检测结果和语义角色标签,
地址:https://arxiv.org/abs/1804.08199
Ranking Distillation: Learning Compact Ranking Models With High Performance for Recommender System
我们提出了一种高效的新方法训练排序模型,例如推荐系统。知识蒸馏(knowledge distillation)在图像识别中取得了良好成功,我们提出了一种知识蒸馏技术学习排序问题,称为排序蒸馏(ranking distillation)。另外,我们还训练了一个更小的学生模型,学习对训练数据和更大的教师模型中的文本进行排序,
地址:https://arxiv.org/abs/1809.07428