机器阅读理解 / 知识库 / 深度学习 / 对话系统 / 神经机器翻译 | 本周值得读

2018 年 3 月 21 日 PaperWeekly 让你更懂AI的



在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。


在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。


点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。

这是 PaperDaily 的第  53 篇文章



Fast and Accurate Reading Comprehension by Combining Self-Attention and Convolution

@RefluxNing 推荐

#Machine Reading Comprehension

本文是 CMU 和 Google Brain 发表于 ICLR 2018 的文章,论文改变了以往机器阅读理解均使用 RNN 进行建模的习惯,使用卷积神经网络结合自注意力机制,完成机器阅读理解任务

其中作者假设,卷积神经网络可建模局部结构信息,而自注意力机制可建模全文互动(Interaction)关系,这两点就足以完成机器阅读理解任务。

论文链接

https://www.paperweekly.site/papers/1759

Feudal Reinforcement Learning for Dialogue Management in Large Domains

@xcwill 推荐

#Dialog Systems

本文来自剑桥大学和 PolyAI,论文提出了一种新的强化学习方法来解决对话策略的优化问题

论文链接

https://www.paperweekly.site/papers/1756


Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN

@Zsank 推荐

#Recurrent Neural Networks

本文使用 ReLU 等非饱和激活函数使网络变得更具有鲁棒性,可以处理很长的序列(超过 5000 个时间步),可以构建很深的网络(实验中用了 21 层)。在各种任务中取得了比 LSTM 更好的效果。

论文链接

https://www.paperweekly.site/papers/1757

代码链接

https://github.com/batzner/indrnn



Joint Training for Neural Machine Translation Models with Monolingual Data

@paperweekly 推荐

#Neural Machine Translation

本文提出的方法可以认为是从源语言到目标语言翻译的学习与从目标语言到源语言翻译的学习的结合。中英翻译和英中翻译都使用初始并行数据来训练,在每次训练的迭代过程中,中英翻译系统将中文句子翻译成英文句子,从而获得新的句对,而该句对又可以反过来补充到英中翻译系统的数据集中。

同理,这个过程也可以反向进行。这样双向融合不仅使得两个系统的训练数据集大大增加,而且准确率也大幅提高。

论文链接

https://www.paperweekly.site/papers/1750



Attentive Recurrent Tensor Model for Community Question Answering

@Zsank 推荐

#Question Answering

社区问答有一个很主要的挑战就是句子间词汇与语义的鸿沟。本文使用了 phrase-level 和 token-level 两个层次的 attention 来对句子中的词赋予不同的权重,并参照 CNTN 模型用神经张量网络计算句子相似度的基础上,引入额外特征形成 3-way 交互张量相似度计算

围绕答案选择、最佳答案选择、答案触发三个任务,论文提出的模型 RTM 取得了多个 state-of-art 效果。

论文链接

https://www.paperweekly.site/papers/1741



Biased Importance Sampling for Deep Neural Network Training

@chlr1995 推荐

#Importance Sampling

Importance Sampling 在凸问题的随机优化上已经得到了成功的应用。但是在 DNN 上的优化方面结合 Importance Sampling 存在困难,主要是缺乏有效的度量importance 的指标。 

本文提出了一个基于 loss 的 importance 度量指标,并且提出了一种利用小型模型的 loss 近似方法,避免了深度模型的大规模计算。经实验表明,结合了 Importance Sampling 的训练在速度上有很大的提高。

论文链接

https://www.paperweekly.site/papers/1758

代码链接

https://github.com/idiap/importance-sampling



Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks

@guotong1988 推荐

#Knowledge Base

传统 QA 问题的解决方法是从知识库或者生文本中推测答案,本文将通用模式扩展到自然语言 QA 的应用当中,采用记忆网络来关注文本和 KB 相结合的大量事实

论文链接

https://www.paperweekly.site/papers/1734

代码链接

https://github.com/rajarshd/TextKBQA



Deliberation Networks: Sequence Generation Beyond One-Pass Decoding

@paperweekly 推荐

#Sequence Labeling

编码器 - 解码器框架在许多任务中取得了可喜的进展,包括机器翻译、文本摘要、QA、对话系统、图像标记等,但它还没有涉及审议。

审议是人们日常生活中的一种常见行为,如阅读新闻、撰写论文/文章/书籍,在本文中,团队将审议过程引入到编码器 - 解码器框架中,并提出用审议网络进行序列生成

论文链接

https://www.paperweekly.site/papers/1749


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!


点击以下标题查看往期推荐: 




#榜 单 公 布 #


2017年度最值得读的AI论文 | NLP篇 · 评选结果公布

2017年度最值得读的AI论文 | CV篇 · 评选结果公布


我是彩蛋 


 解锁新功能:热门职位推荐!


PaperWeekly小程序升级啦


今日arXiv√猜你喜欢√热门职位


找全职找实习都不是问题

 

 解锁方式 

1. 识别下方二维码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能


 职位发布 

请添加小助手微信(pwbot02)进行咨询

 

长按识别二维码,使用小程序

*点击阅读原文即可注册






关于PaperWeekly


PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。



▽ 点击 | 阅读原文 | 加入社区一起刷论文

登录查看更多
11

相关内容

包括微软、CMU、Stanford在内的顶级人工智能专家和学者们正在研究更复杂的任务:让机器像人类一样阅读文本,进而根据对该文本的理解来回答问题。这种阅读理解就像是让计算机来做我们高考英语的阅读理解题。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
机器翻译深度学习最新综述
专知会员服务
98+阅读 · 2020年2月20日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
[综述]基于深度学习的开放领域对话系统研究综述
专知会员服务
78+阅读 · 2019年10月12日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
近期有哪些值得读的QA论文?| 专题论文解读
PaperWeekly
4+阅读 · 2018年6月5日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
本周值得读:13 份最新开源「Paper + Code」
PaperWeekly
9+阅读 · 2018年1月19日
本周不容错过的的9篇NLP论文 | PaperDaily #21
PaperWeekly
22+阅读 · 2017年12月1日
资源:10份机器阅读理解数据集 | 论文集精选 #02
PaperWeekly
11+阅读 · 2017年9月16日
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
8+阅读 · 2019年3月28日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
3+阅读 · 2018年5月28日
VIP会员
相关论文
Arxiv
101+阅读 · 2020年3月4日
Arxiv
6+阅读 · 2019年9月4日
Arxiv
8+阅读 · 2019年3月28日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
CoQA: A Conversational Question Answering Challenge
Arxiv
7+阅读 · 2018年8月21日
Arxiv
3+阅读 · 2018年5月28日
Top
微信扫码咨询专知VIP会员