【业界】 | 谷歌 NIPS 2017 23篇论文:从注意力到价值预测网络(附论文下载)

点击上方“专知”关注获取专业AI知识!

【导读】2017年度神经信息处理系统大会(NIPS 2017)将于12 月份在美国长滩举行,本届NIPS共收到 3240 篇论文投稿,录用 678 篇,录用率为 20.9%;其中包括 40 篇口头报告论文和 112 篇 spotlight 论文。谷歌是大赢家,共中了23篇,包括之前备受关注的《Attention is All you Need》和Hinton的《Dynamic Routing between Capsules》,此次专知介绍这23篇的前8篇,点击文末「阅读原文」下载全部论文。


论文介绍

1. 基于元学习视角的物品冷启动推荐(A Meta-Learning Perspective onCold-Start Recommendations for Items)

作者:Manasi VartakHugo LarochelleArvind Thiagarajan


摘要:矩阵分解是物品推荐中用到的最重要的算法之一,但是这种方法面临着很重要的冷启动问题。这种冷启动问题推文推荐中显得尤为严重,因为这些推文都是先后到达的。这篇文章中,我们提出使用元学习策略来解决连续到到物品的冷启动问题。我们提出了两种神经网络结构来实现我们的元学习策略。第一种结构学习一个线性分类器,分类器的权重有物品历史决定。第二种结构学习一种偏置可被调整的神经网络。我们在真是世界的tweet推荐中验证了我们的实验。在twitter实验中我们提出的方法大幅度超过了基于矩阵分解的方法同时也基于产品推荐的推文推荐。


2. 提升生成模型(AdaGAN: Boosting GenerativeModels)

作者:Ilya O. Tolstikhin, Sylvain Gelly, Olivier Bousquet, Carl-Johann SIMON-GABRIEL, Bernhard Schölkopf


摘要:生成对抗网络(GaN)(Goodfellow et al.,2014)是复杂的数据如图像训练生成模型的有效方法。然而,它们却很难培养,可苦于缺少模式,模型不能够产生一定区域的空间问题的例子。我们提出了一个迭代过程,称为adagan,其中的每一步我们添加一个新的组件到一个混合模型的运行在加权样本的阿甘算法。这是灵感的Boosting算法,其中许多潜在的弱势个体贪婪地聚集形成一个强的预测综合预测。我们证明了这样的一个增量procedureleads收敛在一个有限数量的步骤每个步骤的真实分布是最优的,并且收敛以指数速度否则。我们alsoillustrate实验,本程序解决的问题missingmodes。


3. 基于仿射不变的在线优化方法(Affine-Invariant Online Optimization)

作者:Tomer Koren, Roi Livni


摘要:我们提出了一个新的基于仿射不变的在线优化方法叫做Online Lazy Newton。Online Lazy Newton的遗憾是独立的条件左右:算法的性能取决于问题的最佳预处理回顾与内在的维度。作为一个应用算法,我们展示如何在Lazy Newton可以用来实现无悔优化的低秩专家问题,实验结果表明提出的方法通过使用√r因素超过以前最知名的束缚和解决Hazan等人提出的一个公开的问题。


4. Approximation and Convergence Properties of Generative Adversarial Learning

作者:Shuang Liu, Olivier Bousquet, Kamalika Chaudhuri


摘要:对抗生成网络通过联合的优化生成器和判别器这两个选手游戏的目标来学习数据的分布形式。然而,尽管他们在实践中取得很多成功应用,但关于它们是如何接近目标分布的两个非常基本的问题仍然没有得到解答。首先,不知道如何限制鉴别器族是如何影响近似质量的。其次,虽然已经提出了一些不同的目标函数,但是在分布收敛的各种概念下,什么时候目标函数向全局最小值的收敛到目标分布我们并不了解。在本文中,我们通过定义对抗差异的概念,在广泛和统一的环境中解决这些问题,其中包括最近提出的一些目标函数。我们表明,如果目标函数是一些附加条件的对抗分歧,那么使用受限制的鉴别器族有一个时刻匹配效应。此外,我们证明了对于严格对抗分歧的目标函数,目标函数的收敛意味着收敛性弱,从而推广了以前的结果。


5. Attention is All You Need

作者:Ashish Vaswani, Noam Shazeer, Niki Parmar, Llion Jones, Jakob Uszkoreit, Aidan N. Gomez, Łukasz Kaiser


摘要:在编码器-解码器配置中,显性序列显性转导模型(dominant sequencetransduction model)基于复杂的RNN 或 CNN。表现最佳的模型也需通过注意力机制(attention mechanism)连接编码器和解码器。我们提出了一种新型的简单网络架构——Transformer,它完全基于注意力机制,彻底放弃了循环和卷积。两项机器翻译任务的实验表明,这些模型的翻译质量更优,同时更并行,所需训练时间也大大减少。我们的模型在 WMT 2014 英语转德语的翻译任务中取得了 BLEU 得分 28.4 的成绩,领先当前现有的最佳结果(包括集成模型)超过 2 个 BLEU 分值。WMT 2014 英语转法语翻译任务中,在 8 块 GPU 上训练了 3.5 天之后,我们的模型获得了新的单模型顶级 BLEU 得分 41.0,只是目前文献中最佳模型训练成本的一小部分。我们表明 Transformer 在其他任务上也泛化很好,把它成功应用到了有大量训练数据和有限训练数据的英语组别分析上。


6. Avoiding discrimination through causal reasoning

作者:Niki Kilbertus, Mateo Rojas Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing, Bernhard Schölkopf


摘要:最近关于机器学习公平性的工作集中在各种统计歧视标准以及它们在它们之间如何权衡。这些标准中的大部分都是观察性的:它们仅依赖于预测变量,以及具有受保护属性、特征和结果的联合分布。观测标准虽然便于处理,却有着严重的内在局限性,使得它们无法最终解决公平问题。除了观察标准,我们用因果推理的语言来构建基于受保护属性的歧视问题。这中观点将注意力从“什么是正确的公平标准?转移到“我们想要假设关于因果数据生成过程是什么?通过因果关系的视角,我们做出了一些贡献。首先,我们清楚地阐明观察标准失败的原因,从而将之前的意见内容形式化。其次,我们的方法暴露了以前忽略的细节,以及为什么它们是这个问题的根本。最后,我们提出了自然的因果非歧视标准,并开发了满足标准的算法。


7. Bridging the Gap Between Value and Policy Based Reinforcement Learning

作者:Ofir Nachum, Mohammad Norouzi, Kelvin Xu, Dale Schuurmans


摘要:在熵正则化的基础上,基于softmax时间一致性与策略最优性之间的关系,建立了基于价值和策略的强化学习(RL)之间的新的联系。具体而言,我们表明,softmax一致的行动价值满足一个强的一致性属性与最佳的熵正则化策略概率沿任何行动序列,无论来源。从这个观察,我们开发了一种新的RL算法,路径一致性学习(PCL),最小化从在线和离线的痕迹中提取的多步骤动作序列测量的不一致性。我们随后通过展示如何使用单一模型来表示策略和softmax行为值来加深关系。除了不需要单独的批评者之外,这种统一体现了政策梯度如何通过自上而下的政策数据自我引导来稳定。实验评估表明,这两种算法都可以在几个基准测试任务中显着地胜过强大的演员评论和Q学习基线。


8. Dynamic Routing between Capsules

作者:Sara Sabour, Nicholas Frosst, Geoffrey E. Hinton


摘要:Capsule 是一组神经元,其活动向量(activity vector)表示特定实体类型的实例化参数,如对象或对象部分。我们使用活动向量的长度表征实体存在的概率,向量方向表示实例化参数。同一水平的活跃 capsule 通过变换矩阵对更高级别的 capsule 的实例化参数进行预测。当多个预测相同时,更高级别的 capsule 变得活跃。我们展示了判别式训练的多层 capsule 系统在 MNIST 数据集上达到了最好的性能效果,比识别高度重叠数字的卷积网络的性能优越很多。为了达到这些结果,我们使用迭代的路由协议机制:较低级别的 capsule 偏向于将输出发送至高级别的 capsule,有了来自低级别 capsule 的预测,高级别 capsule 的活动向量具备较大的标量积。


9. 过滤变分目标(Filtering Variational Objectives)

作者:Chris J. Maddison, John Lawson, George Tucker, Mohammad Norouzi, Nicolas Heess, Andriy Mnih, Yee Teh, Arnaud Doucet


10. 插值策略梯度:基于在策略和离策略梯度融合的强化学习(Interpolated Policy Gradient: Merging On-Policy and Off-Policy Gradient Estimation for Deep Reinforcement Learning)

作者:Shixiang Gu, Tim Lillicrap, Richard E. Turner, Zoubin Ghahramani, Bernhard Schölkopf, Sergey Levine


11. 使用随机矩阵理论学习学习动态深度神经网络(Investigating the learning dynamics of deep neural networks using random matrix theory)

作者:Jeffrey Pennington, Samuel Schoenholz, Surya Ganguli


12. 使用循环神经网络学习层次信息流(Thalamus Gated Recurrent Modules)


作者:Danijar Hafner, Alex Irpan, James Davidson, Nicolas Heess


13. 基于语言的早期视觉处理建模(Modulating early visual processing by language)

作者:Harm de Vries, Florian Strub, Jeremie Mary, Hugo Larochelle, Olivier Pietquin, Aaron C. Courville


14. 基于度量活动成本的多臂赌博机问题(Multi-Armed Bandits with Metric Movement Costs)

作者:Tomer KorenRoi LivniYishay Mansour

15. 基于非线性矩阵理论的深度学习(Nonlinear random matrix theory for deep learning)

作者:Jeffrey Pennington, Pratik Worah

16. 关于黑盒反向传播和雅可比感知(On Blackbox Backpropagation and Jacobian Sensing)

作者:Krzysztof M. Choromanski, Vikas Sindhwani

17. PASS-GLM:基于多项式近似充分统计的可扩展贝叶斯广义线性模型推断(PASS-GLM: polynomial approximate sufficient statistics for scalable Bayesian GLM inference)

作者:Jonathan Huggins, Ryan P. Adams, Tamara Broderick

18. 基于低方差,无偏梯度估计的离散因变量模型(REBAR: Low-variance, unbiased gradient estimates for discrete latent variable models)

作者:George Tucker, Andriy Mnih, Chris J. Maddison, John Lawson, Jascha Sohl-Dickstein

19. 减少梯度方差再参数化(Reducing Reparameterization Gradient Variance)

作者:Andrew Miller, Nick Foti, Alexander D'Amour, Ryan P. Adams

20. 使用随机梯度下降学习网络的共轭分类(SGD learns the conjugate class of the network)

作者:Amit Daniely

21. SVCCA:基于奇异值典型关联分析的深度理解和提高(SVCCA: Singular Vector Canonical Correlation Analysis for Deep Understanding and Improvement)

作者:Maithra Raghu, Justin Gilmer, Jason Yosinski, Jascha Sohl-Dickstein

22. 随机正交向量不可思议的有效性(The Unreasonable Effectiveness of Random Orthogonal Embeddings)

作者:Krzysztof M. ChoromanskiMark RowlandAdrian Welle

23. 价值预测网络(Value Prediction Network)

作者:Junhyuk Oh, Satinder Singh, Honglak L


请关注专知公众号(扫一扫最下面专知二维码,或者点击上方蓝色专知),

  • 后台回复“nipsG” 就可以获取23篇论文pdf下载链接~~

请扫描专知小助手,加入专知人工智能群交流~

欢迎转发分享专业AI知识!

-END-

欢迎使用专知

专知,一个新的认知方式!专注在人工智能领域为AI从业者提供专业可信的知识分发服务, 包括主题定制、主题链路、搜索发现等服务,帮你又好又快找到所需知识。


使用方法>>访问www.zhuanzhi.ai, 或点击文章下方“阅读原文”即可访问专知

中国科学院自动化研究所专知团队

@2017 专知


专 · 知


关注我们的公众号,获取最新关于专知以及人工智能的资讯、技术、算法、深度干货等内容。扫一扫下方关注我们的微信公众号。

点击“阅读原文”,使用专知


展开全文
Top
微信扫码咨询专知VIP会员