The growing need to deal with massive instances motivates the design of algorithms balancing the quality of the solution with applicability. For the latter, an important measure is the \emph{adaptive complexity}, capturing the number of sequential rounds of parallel computation needed. In this work we obtain the first \emph{constant factor} approximation algorithm for non-monotone submodular maximization subject to a knapsack constraint with \emph{near-optimal} $O(\log n)$ adaptive complexity. Low adaptivity by itself, however, is not enough: one needs to account for the total number of function evaluations (or value queries) as well. Our algorithm asks $\tilde{O}(n^2)$ value queries, but can be modified to run with only $\tilde{O}(n)$ instead, while retaining a low adaptive complexity of $O(\log^2n)$. Besides the above improvement in adaptivity, this is also the first \emph{combinatorial} approach with sublinear adaptive complexity for the problem and yields algorithms comparable to the state-of-the-art even for the special cases of cardinality constraints or monotone objectives. Finally, we showcase our algorithms' applicability on real-world datasets.


翻译:处理大规模事件的需求日益增加,这促使设计算法,平衡解决方案质量和适用性。对于后者来说,一个重要的衡量尺度是 \ emph{ 适应性复杂度, 捕捉需要的连续平行计算回合数。 在这项工作中,我们获得了第一个 \ emph{ constant因子因子} 非分子子模式最大化的近似算法, 受 knapsack 限制, 并带有 \ emph{ 近于最佳} $O (log n) 适应性复杂度。 然而, 低适应性本身是不够的: 一种需要考虑函数评价( 或价值查询) 的总数。 我们的算法要求 $\ tilde{ O} (n) $ 2 值查询, 但可以修改为运行仅$\ tilde{ O} (n) 。 同时保持 $O (log2n) 的低适应性复杂度。 除了上述适应性改进之外, 这本身也是不够的 : 一种方法是次线性适应性复杂度方法, 甚至对于问题具有次直线性的复杂性, 和最终设定了我们最基本数据限制 的模型, 。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
专知会员服务
52+阅读 · 2020年9月7日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2017年11月1日
Arxiv
0+阅读 · 2021年4月12日
Provable Repair of Deep Neural Networks
Arxiv
0+阅读 · 2021年4月9日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2017年11月1日
Top
微信扫码咨询专知VIP会员