Current state-of-the-art multi-objective optimization solvers, by computing gradients of all $m$ objective functions per iteration, produce after $k$ iterations a measure of proximity to critical conditions that is upper-bounded by $O(1/\sqrt{k})$ when the objective functions are assumed to have $L-$Lipschitz continuous gradients; i.e. they require $O(m/\epsilon^2)$ gradient and function computations to produce a measure of proximity to critical conditions bellow some target $\epsilon$. We reduce this to $O(1/\epsilon^2)$ with a method that requires only a constant number of gradient and function computations per iteration; and thus, we obtain for the first time a multi-objective descent-type method with a query complexity cost that is unaffected by increasing values of $m$. For this, a brand new multi-objective descent direction is identified, which we name the \emph{central descent direction}, and, an incremental approach is proposed. Robustness properties of the central descent direction are established, measures of proximity to critical conditions are derived, and, the incremental strategy for finding solutions to the multi-objective problem is shown to attain convergence properties unattained by previous methods. To the best of our knowledge, this is the first method to achieve this with no additional a-priori information on the structure of the problem, such as done by scalarizing techniques, and, with no pre-known information on the regularity of the objective functions other than Lipschitz continuity of the gradients.


翻译:当前最先进的多目标优化解决方案,通过计算每迭代所有美元客观函数的梯度,计算出每迭代所有美元客观函数的梯度,在计算出每迭代所有美元客观函数的梯度后,产生一种与关键条件接近的量度值,而当目标函数假定具有L-$Lipschitz连续梯度时,该值以O(1/ sqrt{k}美元为上限;即它们需要$O(m/\epsilon2)美元为基值,而计算出与关键条件的接近度值,则在重覆代代代计算中,我们将这一值减为O(1/\eepsilon_2)美元,用一种只需要固定的梯度和函数计算每迭代计算一次的数值;因此,我们第一次获得一种多目标的后继类型方法,其复杂性不受美元价值增加的影响。为此确定了一个新的多目标下行方向,我们命名了一个不易辨别的位方向, 并提出了一个渐进的方法。

0
下载
关闭预览

相关内容

专知会员服务
44+阅读 · 2020年10月31日
专知会员服务
52+阅读 · 2020年9月7日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
因果图,Causal Graphs,52页ppt
专知会员服务
246+阅读 · 2020年4月19日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年4月10日
Arxiv
0+阅读 · 2021年7月15日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
0+阅读 · 2021年7月13日
Arxiv
6+阅读 · 2018年2月8日
VIP会员
相关VIP内容
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年4月10日
Top
微信扫码咨询专知VIP会员