每日论文 | 机器阅读理解的双向问答网络;自然语言模型的大型边际标准;给神经网络打分,哪种更像人类大脑?

2018 年 9 月 8 日 论智

1

Dual Ask-Answer Network for Machine Reading Comprehension

在阅读理解中有三种元素:问题、答案和语境。问题生成或问题回答的目的是基于语境进行推断。我们提出了一种新的双向神经序列,能够连接三个模块,能够让他同时学习两个任务,互相了解。训练时,模型会将问题、语境和答案作为输入,通过分层注意处理捕捉多模块之间的联系。

地址:https://arxiv.org/abs/1809.01997

2

Large Margin Neural Language Model

本文是百度研究院在EMNLP 2018上的论文。其中研究人员提出了一种在训练神经语言模型时的较大的边界尺度。传统意义上,神经语言模型是通过在语法句子上的混淆度(PPL)最小化进行训练的。但是,我们证明PPL在某些任务上也许不是最好的衡量标准,继而提出了更大的边际标准。

地址:https://arxiv.org/abs/1808.08987

3

Brain-Score:Which Artificial Neural Network for Object Recognition is most Brain-Like?

你是否思考过哪种深度网络和人脑更像。神经网络和人类的大脑一样,包含了很多处理机制。我们提出了一种综合的多神经和行为标准,可以对神经网络进行评分,判断它们和大脑认知的差异。

地址:https://www.biorxiv.org/content/early/2018/09/05/407007

登录查看更多
9

相关内容

包括微软、CMU、Stanford在内的顶级人工智能专家和学者们正在研究更复杂的任务:让机器像人类一样阅读文本,进而根据对该文本的理解来回答问题。这种阅读理解就像是让计算机来做我们高考英语的阅读理解题。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
29+阅读 · 2020年3月5日
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
论文浅尝 | 通过文本到文本神经问题生成的机器理解
开放知识图谱
10+阅读 · 2019年6月30日
Question Generation by Transformers
Arxiv
5+阅读 · 2019年9月14日
Arxiv
6+阅读 · 2019年7月11日
Arxiv
21+阅读 · 2019年3月25日
Arxiv
5+阅读 · 2017年11月13日
VIP会员
相关资讯
Top
微信扫码咨询专知VIP会员