每日论文 | 无注意力翻译模型;可微分的模型预测控制;解决复杂图形中的最短距离问题

2018 年 11 月 2 日 论智

1

You May Not Need Attention

在神经机器翻译中,如果没有注意力并且将编码解码分离,我们能得到怎样的结果?为了回答这一问题,我们提出了一种循环神经翻译模型,不用注意力,也没有分离的编码器和解码器。这种模型延迟率低,在读取第一个源token时,就会立刻写出目标token,并且在解码时可以使用即时记忆。翻译性能与Bahdanau等人的注意力模型相当。

地址:https://arxiv.org/abs/1810.13409

2

Differentiable MPC for End-to-end Planning and Control

在这篇论文中,我们提出用模型预测控制(MPC)作为一种连续状态和动作空间中强化学习的可微分策略类别。这就提供了一种方法,可以使用和结合有模型和无模型两种方法。由此,我们可以通过端到端学习了解控制器的成本和动态。

地址:https://arxiv.org/abs/1810.13400

3


Effect of shortest path multiplicity on congestion of multiplex networks

最短距离是图形中具有代表性的距离测量问题,在很多网络中都有出现。在复杂网络中,这种距离计算对图层的计算是很重要的,在堵车情况发生时,解决了最短距离可以有效提高交通效率。在这篇文章中,我们提出了一种数学方法,用来计算距离的共同分布,以及复杂网络中最短距离的多样性,研究它们在堵车过程中的关系。

地址:https://arxiv.org/abs/1810.12961

星标论智,每天获取最新资讯

登录查看更多
3

相关内容

模型预测控制是一类特殊的控制。它的当前控制动作是在每一个采样瞬间通过求解一个有限时域开环最优控制问题而获得。过程的当前状态作为最优控制问题的初始状态,解得的最优控制序列只实施第一个控制作用。这是它与那些使用预先计算控制律的算法的最大不同。本质上模型预测控制求解一个开环最优控制问题。它的思想与具体的模型无关,但是实现则与模型有关。
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
45+阅读 · 2020年5月23日
专知会员服务
44+阅读 · 2020年3月6日
Transformer文本分类代码
专知会员服务
116+阅读 · 2020年2月3日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
SNN,像你的大脑一样工作
中国科学院自动化研究所
80+阅读 · 2018年11月7日
深度学习中的注意力机制
CSDN大数据
24+阅读 · 2017年11月2日
神经网络中的「注意力」是什么?怎么用?
北京思腾合力科技有限公司
17+阅读 · 2017年10月28日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Arxiv
19+阅读 · 2019年4月5日
A Probe into Understanding GAN and VAE models
Arxiv
9+阅读 · 2018年12月13日
Learning to Importance Sample in Primary Sample Space
VIP会员
Top
微信扫码咨询专知VIP会员