每日三篇 | NeurIPS 2018 Best Papers

2018 年 12 月 4 日 论智

1

Nearly tight sample complexity bounds for learning mixtures of Gaussians via sample compression schemes

估计观察数据的分布是统计数据的一项基本任务,学界对此已经研究了一个多世纪。现在,这个任务也常出现在机器学习中,比如我们会假设某些数据分布可以用高斯混合模型进行建模,一些流行的软件包里也提供启发式算法用于学习高斯混合,如EM算法。

本文开发了一种通用的分布式学习技术,能被用于设计高斯混合的复杂环境。这种技术的理论模型是密度估计,即给定来自未知目标分布的样本,从总变差(TV)距离中找到接近目标分布的分布。通过“编码”精心选择的样本子集,我们能获得该类分布学习的样本复杂度的上限,从而实现用尽可能少的样本来获得目标分布的良好估计。

地址:https://papers.nips.cc/paper/7601-nearly-tight-sample-complexity-bounds-for-learning-mixtures-of-gaussians-via-sample-compression-schemes.pdf

2

Optimal Algorithms for Non-Smooth Distributed Optimization in Networks

在机器学习中,由于大型数据集的相继涌现和计算单元集群训练的推广,分布式优化有很大的应用空间。以近期学界引入的一些算法为例,它们大多都围绕计算网络中所有单独节点都可访问的函数的最小平均数,需要在节点之间进行通信,并具有多种收敛速度。

本文不同于这种平滑凸函数的分布式优化,而是假设原始的主/从分布式算法可能并不是最优的,通信和局部计算之间的收敛速度不同,从全局目标函数的Lipschitz连续性和局部个体函数的Lipschitz连续性这两个规律性假设下研究这个问题。在局部规律性假设下,论文提出了第一个最优一阶分散算法(MSPD)及其相应的最优收敛速度。在全局规律性假设下,论文基于目标函数的局部平滑提出了一种简单而有效的算法(DRS)。

地址:https://arxiv.org/abs/1806.00291

3

Non-delusional Q-learning and value-iteration

Q-learning是强化学习的基础算法,虽然明确列举状态-行动对时,这种算法可以保证收敛到最佳状态——动作值函数(Q函数),但它和函数逼近相结合时可能会出现不稳定。针对这个现象,一些人也提出过确保收敛和改善近似误差的改进,但这类简单修改并不能确保模型接近最优性能。

本文通过函数逼近找到了Q-learning和其他动态规划的基本误差来源——当近似架构限制了可表达的贪婪策略的类别时,就会出现妄想偏差。为了解决这个问题,论文提出了一种新策略——一致性概念,并定义了一个本地备份过程,通过使用信息集确保全局一致性——设置记录与备份Q值一致的策略约束。经实验证明,这种方法可以消除妄想偏差,在常规条件下保证最佳结果。

地址:https://papers.nips.cc/paper/8200-non-delusional-q-learning-and-value-iteration.pdf

4

Neural Ordinary Differential Equations

无论是残差网络、RNN解码器,还是火热的归一化模型,它们构建复杂变换的方法都是把一系列变换组合成隐藏状态。从某种程度上来说,也就是连续变换的欧拉离散化。那么,如果我们往模型里添加更多神经层、步骤更细化一些,会发生什么呢?

本文提出了一系列新的深度神经网络模型,不同于指定隐藏层的离散序列,它们能参数化隐藏状态的导数,网络的输出通过黑盒微分方程求解器计算。这些连续深度模型具有恒定的内存成本,使其评估策略适应每个输入,并且可以明确地牺牲一些数值精度来获得速度上的提升。

地址:https://arxiv.org/abs/1806.07366

星标 论智,每天获取最新资讯

登录查看更多
2

相关内容

【ICML 2020 】小样本学习即领域迁移
专知会员服务
77+阅读 · 2020年6月26日
八篇NeurIPS 2019【图神经网络(GNN)】相关论文
专知会员服务
43+阅读 · 2020年1月10日
【重磅】61篇NIPS2019深度强化学习论文及部分解读
机器学习算法与Python学习
10+阅读 · 2019年9月14日
ICLR 2019论文解读:量化神经网络
机器之心
9+阅读 · 2019年6月13日
【ICML2018】63篇强化学习论文全解读
专知
7+阅读 · 2018年7月24日
一周精品论文分享-0325
深度学习与NLP
3+阅读 · 2018年3月28日
近期AI领域8篇精选论文(附论文、代码)
数据派THU
4+阅读 · 2018年3月24日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关论文
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Optimization for deep learning: theory and algorithms
Arxiv
104+阅读 · 2019年12月19日
Arxiv
19+阅读 · 2019年4月5日
Arxiv
53+阅读 · 2018年12月11日
Arxiv
136+阅读 · 2018年10月8日
Arxiv
3+阅读 · 2017年12月14日
Top
微信扫码咨询专知VIP会员