We propose kernel distributionally robust optimization (Kernel DRO) using insights from the robust optimization theory and functional analysis. Our method uses reproducing kernel Hilbert spaces (RKHS) to construct a wide range of convex ambiguity sets, which can be generalized to sets based on integral probability metrics and finite-order moment bounds. This perspective unifies multiple existing robust and stochastic optimization methods. We prove a theorem that generalizes the classical duality in the mathematical problem of moments. Enabled by this theorem, we reformulate the maximization with respect to measures in DRO into the dual program that searches for RKHS functions. Using universal RKHSs, the theorem applies to a broad class of loss functions, lifting common limitations such as polynomial losses and knowledge of the Lipschitz constant. We then establish a connection between DRO and stochastic optimization with expectation constraints. Finally, we propose practical algorithms based on both batch convex solvers and stochastic functional gradient, which apply to general optimization and machine learning tasks.


翻译:我们用强力优化理论和功能分析的洞察力提出内核分布稳健优化(Kernel DRO) 。 我们的方法使用复制内核Hilbert空间(RKHS) 来构建一系列广泛的 convex 模棱两可的组合, 这些组合可以被广泛化, 以整体概率度量和有限顺序瞬间界限为基础。 这个视角统一了多种现有稳健和随机优化方法。 我们证明我们有一个理论, 将典型的两极性在瞬间数学问题中进行概括化。 通过这个理论, 我们重新定义了 DRO 措施在搜索 RKHS 功能的双重程序中的最大化。 使用通用的 RKHS, 理论适用于广泛的损失功能类别, 提升共同的限制, 如多子值损失和利普施奇茨常数的知识 。 我们随后在DRO 和Stochatic 优化之间建立起一个连接。 最后, 我们提出基于批量 convex 解算法和 功能梯度的实用算法, 适用于一般的优化和机器学习任务。

0
下载
关闭预览

相关内容

专知会员服务
144+阅读 · 2021年3月17日
专知会员服务
53+阅读 · 2020年9月7日
【经典书】C语言傻瓜式入门(第二版),411页pdf
专知会员服务
53+阅读 · 2020年8月16日
【斯坦福】凸优化圣经- Convex Optimization (附730pdf下载)
专知会员服务
226+阅读 · 2020年6月5日
专知会员服务
162+阅读 · 2020年1月16日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年4月21日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
随波逐流:Similarity-Adaptive and Discrete Optimization
我爱读PAMI
5+阅读 · 2018年2月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员