We propose kernel distributionally robust optimization (Kernel DRO) using insights from the robust optimization theory and functional analysis. Our method uses reproducing kernel Hilbert spaces (RKHS) to construct a wide range of convex ambiguity sets, including sets based on integral probability metrics and finite-order moment bounds. This perspective unifies multiple existing robust and stochastic optimization methods. We prove a theorem that generalizes the classical duality in the mathematical problem of moments. Enabled by this theorem, we reformulate the maximization with respect to measures in DRO into the dual program that searches for RKHS functions. Using universal RKHSs, the theorem applies to a broad class of loss functions, lifting common limitations such as polynomial losses and knowledge of the Lipschitz constant. We then establish a connection between DRO and stochastic optimization with expectation constraints. Finally, we propose practical algorithms based on both batch convex solvers and stochastic functional gradient, which apply to general optimization and modern machine learning tasks.


翻译:我们用强力优化理论和功能分析的洞察力提出内核分布强力优化( Kernel DRO) 。 我们的方法是复制内核Hilbert 空间( RKHS), 以构建一系列广泛的Convex 模棱两可, 包括基于整体概率度量和定序瞬间界限的数组。 这个视角统一了多种现有强力和随机力优化方法。 我们证明一个典型的理论, 概括了数学时点的双重问题。 通过这个理论, 我们重新将DRO 措施的最大化应用到搜索 RKHS 函数的双重程序。 使用通用的 RKHS, 该理论适用于广泛的损失功能类别, 提升共同的限制, 如多位损失和利普施茨常数的知识。 我们随后在DRO 和静电力优化之间建立起了一种连接。 最后, 我们基于批量的 convex 溶剂溶剂解剂和随机功能梯度的实用算法, 适用于一般的优化和现代机器学习任务 。

0
下载
关闭预览

相关内容

剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
49+阅读 · 2021年1月20日
专知会员服务
42+阅读 · 2020年12月18日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
专知会员服务
159+阅读 · 2020年1月16日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
已删除
将门创投
13+阅读 · 2019年4月17日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Arxiv
0+阅读 · 2021年2月12日
Arxiv
4+阅读 · 2019年1月14日
VIP会员
相关资讯
已删除
将门创投
13+阅读 · 2019年4月17日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Top
微信扫码咨询专知VIP会员