每日论文 | 用循环世界模型改良策略进化;轻量级CNN:ChannelNets;强化学习知识点总结

2018 年 9 月 7 日 论智

1

Recurrent World Models Facilitate Policy Evolution

本文来自谷歌的David Ha,并将会在NIPS 2018上进行口头展示。这篇论文讲述了生成循环神经网络在无监督模式下快速得到训练,之后通过压缩后的时空表示建立了多种常见的强化学习环境模型。作者将World model提取出的特征输入到策略中,在多种环境下达到了领先的结果。

地址:https://arxiv.org/abs/1809.01999

2

ChannelNets: Compact and Efficient Convolutional Neural Networks via Channel-Wise Convolutions

卷积神经网络可以解决多种AI任务,但是模型体积越来越大,在很多资源有限的应用上都难以应用。在这篇文章中,我们提出用通道式的卷积对深度模型进行压缩,将特征映射中的密集连接换成CNN中稀疏的连接。基于此,我们创建了轻量级的CNN,成为ChannelNets。

地址:https://arxiv.org/abs/1809.01330

3

A (Long) Peek into Reinforcement Learning

这并不是一篇论文,而是作者Lilian Weng总结的有关强化学习的基础概念和经典算法,对新手来说是一份很详细的指南。文章非常长,建议收藏。

地址:https://lilianweng.github.io/lil-log/2018/02/19/a-long-peek-into-reinforcement-learning.html

登录查看更多
14

相关内容

在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。基于它们的共享权重架构和平移不变性特征,它们也被称为位移不变或空间不变的人工神经网络(SIANN)。它们在图像和视频识别,推荐系统,图像分类,医学图像分析,自然语言处理,和财务时间序列中都有应用。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【IJCAI2020-华为诺亚】面向深度强化学习的策略迁移框架
专知会员服务
27+阅读 · 2020年5月25日
专知会员服务
73+阅读 · 2020年5月21日
轻量级神经网络架构综述
专知会员服务
96+阅读 · 2020年4月29日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
计算机视觉知识点总结
极市平台
18+阅读 · 2019年4月16日
机器学习、深度学习 知识点总结及面试题
全球人工智能
17+阅读 · 2018年1月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
卷积神经网络(CNN)学习笔记1:基础入门
黑龙江大学自然语言处理实验室
14+阅读 · 2016年6月16日
Arxiv
4+阅读 · 2018年9月25日
Arxiv
12+阅读 · 2018年9月5日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年6月24日
VIP会员
相关VIP内容
【IJCAI2020-华为诺亚】面向深度强化学习的策略迁移框架
专知会员服务
27+阅读 · 2020年5月25日
专知会员服务
73+阅读 · 2020年5月21日
轻量级神经网络架构综述
专知会员服务
96+阅读 · 2020年4月29日
【Nature论文】深度网络中的梯度下降复杂度控制
专知会员服务
38+阅读 · 2020年3月9日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
MIT新书《强化学习与最优控制》
专知会员服务
275+阅读 · 2019年10月9日
Top
微信扫码咨询专知VIP会员