In stochastic optimization, particularly in evolutionary computation and reinforcement learning, the optimization of a function $f: \Omega \to \mathbb{R}$ is often addressed through optimizing a so-called relaxation $\theta \in \Theta \mapsto \mathbb{E}_\theta(f)$ of $f$, where $\Theta$ resembles the parameters of a family of probability measures on $\Omega$. We investigate the structure of such relaxations by means of measure theory and Fourier analysis, enabling us to shed light on the success of many associated stochastic optimization methods. The main structural traits we derive and that allow fast and reliable optimization of relaxations are the resemblance of optimal values of $f$, Lipschitzness of gradients, and convexity. We emphasize settings where $f$ does not involve the latter structure, e.g., in the presence of (stochastic) disturbance.


翻译:在分析优化中,特别是在进化计算和强化学习中,一个功能(f):\Omega\to\mathbb{R}$的优化往往是通过优化所谓的放松$\theta\\ in\theta\mapsto\mathbb{E ⁇ theta(f)$(f)$,其中美元与概率测算值组合的参数相似。我们通过测量理论和Freyer分析来调查这种放松的结构,使我们能够揭示许多相关裁剪优化方法的成功之处。我们得出并允许快速和可靠优化放松的主要结构特征是美元、梯度利普西茨和等最佳值的相似之处。我们强调美元与后者结构没有关系的环境,例如,在出现(随机)扰动时。

0
下载
关闭预览

相关内容

专知会员服务
51+阅读 · 2020年12月14日
斯坦福EE364a《凸优化》课件,301页ppt
专知会员服务
96+阅读 · 2020年7月14日
专知会员服务
63+阅读 · 2020年3月4日
深度强化学习策略梯度教程,53页ppt
专知会员服务
183+阅读 · 2020年2月1日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
已删除
将门创投
5+阅读 · 2017年10月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Learned convex regularizers for inverse problems
Arxiv
0+阅读 · 2021年3月1日
Arxiv
0+阅读 · 2021年3月1日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
已删除
将门创投
5+阅读 · 2017年10月20日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员