题目: Learning with Differentiable Perturbed Optimizers

摘 要:

机器学习管道通常依赖于优化过程来做出离散的决策(例如排序、挑选最近的邻居、寻找最短路径或最佳匹配)。虽然这些离散的决策很容易以正向的方式进行计算,但它们不能用于使用一阶优化技术修改模型参数,因为它们破坏了计算图的反向传播。为了扩展端到端的学习问题的范围,提出了一种将输出最优离散决策的块转换为可微操作的系统方法。我们的方法依赖于这些参数的随机扰动,并且可以很容易地在现有的求解器中使用,而不需要特别的正则化或平滑。这些扰动的优化器得到的解是可微的,且不满足局部常数。平滑度的大小可以通过选择的噪声幅值进行调整,我们分析了噪声幅值的影响。这些扰动解的导数可以得到有效的评价。我们还展示了该框架如何与结构化预测中产生的一系列损失相联系,并描述了如何在有理论保证的情况下,在无监督和监督学习中使用这些损失。我们在模拟和真实数据的实验中证明了我们的方法在几个机器学习任务中的性能。

成为VIP会员查看完整内容
28

相关内容

“机器学习是近20多年兴起的一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。机器学习理论主要是设计和分析一些让 可以自动“ 学习”的算法。机器学习算法是一类从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法。因为学习算法中涉及了大量的统计学理论,机器学习与统计推断学联系尤为密切,也被称为统计学习理论。算法设计方面,机器学习理论关注可以实现的,行之有效的学习算法。很多 推论问题属于 无程序可循难度,所以部分的机器学习研究是开发容易处理的近似算法。” ——中文维基百科

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【CMU】深度学习模型中集成优化、约束和控制,33页ppt
专知会员服务
45+阅读 · 2020年5月23日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
74+阅读 · 2020年4月24日
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
入门 | 深度学习模型的简单优化技巧
机器之心
9+阅读 · 2018年6月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
10+阅读 · 2018年5月2日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
13+阅读 · 2018年4月15日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
3+阅读 · 2018年10月11日
Arxiv
3+阅读 · 2018年10月5日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
VIP会员
相关资讯
利用神经网络进行序列到序列转换的学习
AI研习社
12+阅读 · 2019年4月26日
CMU、谷歌提出Transformer-XL:学习超长上下文关系
机器之心
9+阅读 · 2019年1月18日
入门 | 深度学习模型的简单优化技巧
机器之心
9+阅读 · 2018年6月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
已删除
将门创投
10+阅读 · 2018年5月2日
论文浅尝 | 使用变分推理做KBQA
开放知识图谱
13+阅读 · 2018年4月15日
微信扫码咨询专知VIP会员