来源:PaperWeekly
本文共3050字,建议阅读7分钟。
本文带你发掘近期8篇AI领域精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
01
Fast and Accurate Reading Comprehension by Combining Self-Attention and Convolution
@RefluxNing 推荐
#Machine Reading Comprehension
本文是 CMU 和 Google Brain 发表于 ICLR 2018 的文章,论文改变了以往机器阅读理解均使用 RNN 进行建模的习惯,使用卷积神经网络结合自注意力机制,完成机器阅读理解任务。
其中作者假设,卷积神经网络可建模局部结构信息,而自注意力机制可建模全文互动(Interaction)关系,这两点就足以完成机器阅读理解任务。
论文链接:https://www.paperweekly.site/papers/1759
02
Feudal Reinforcement Learning for Dialogue Management in Large Domains
@xcwill 推荐
#Dialog Systems
本文来自剑桥大学和 PolyAI,论文提出了一种新的强化学习方法来解决对话策略的优化问题。
论文链接:https://www.paperweekly.site/papers/1756
03
Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN
@Zsank 推荐
#Recurrent Neural Networks
本文使用 ReLU 等非饱和激活函数使网络变得更具有鲁棒性,可以处理很长的序列(超过 5000 个时间步),可以构建很深的网络(实验中用了 21 层)。在各种任务中取得了比 LSTM 更好的效果。
论文链接:https://www.paperweekly.site/papers/1757
代码链接:https://github.com/batzner/indrnn
04
Joint Training for Neural Machine Translation Models with Monolingual Data
@paperweekly 推荐
#Neural Machine Translation
本文提出的方法可以认为是从源语言到目标语言翻译的学习与从目标语言到源语言翻译的学习的结合。中英翻译和英中翻译都使用初始并行数据来训练,在每次训练的迭代过程中,中英翻译系统将中文句子翻译成英文句子,从而获得新的句对,而该句对又可以反过来补充到英中翻译系统的数据集中。
同理,这个过程也可以反向进行。这样双向融合不仅使得两个系统的训练数据集大大增加,而且准确率也大幅提高。
论文链接:https://www.paperweekly.site/papers/1750
05
Attentive Recurrent Tensor Model for Community Question Answering
@Zsank 推荐
#Question Answering
社区问答有一个很主要的挑战就是句子间词汇与语义的鸿沟。本文使用了 phrase-level 和 token-level 两个层次的 attention 来对句子中的词赋予不同的权重,并参照 CNTN 模型用神经张量网络计算句子相似度的基础上,引入额外特征形成 3-way 交互张量相似度计算。
围绕答案选择、最佳答案选择、答案触发三个任务,论文提出的模型 RTM 取得了多个 state-of-art 效果。
论文链接:https://www.paperweekly.site/papers/1741
06
Biased Importance Sampling for Deep Neural Network Training
@chlr1995 推荐
#Importance Sampling
Importance Sampling 在凸问题的随机优化上已经得到了成功的应用。但是在 DNN 上的优化方面结合 Importance Sampling 存在困难,主要是缺乏有效的度量importance 的指标。
本文提出了一个基于 loss 的 importance 度量指标,并且提出了一种利用小型模型的 loss 近似方法,避免了深度模型的大规模计算。经实验表明,结合了 Importance Sampling 的训练在速度上有很大的提高。
论文链接:https://www.paperweekly.site/papers/1758
代码链接:https://github.com/idiap/importance-sampling
07
Question Answering on Knowledge Bases and Text using Universal Schema and Memory Networks
@guotong1988 推荐
#Knowledge Base
传统 QA 问题的解决方法是从知识库或者生文本中推测答案,本文将通用模式扩展到自然语言 QA 的应用当中,采用记忆网络来关注文本和 KB 相结合的大量事实。
论文链接:https://www.paperweekly.site/papers/1734
代码链接:https://github.com/rajarshd/TextKBQA
08
Deliberation Networks: Sequence Generation Beyond One-Pass Decoding
@paperweekly 推荐
#Sequence Labeling
编码器 - 解码器框架在许多任务中取得了可喜的进展,包括机器翻译、文本摘要、QA、对话系统、图像标记等,但它还没有涉及审议。
审议是人们日常生活中的一种常见行为,如阅读新闻、撰写论文/文章/书籍,在本文中,团队将审议过程引入到编码器 - 解码器框架中,并提出用审议网络进行序列生成。
论文链接:https://www.paperweekly.site/papers/1749