We study parallelizable algorithms for maximization of a submodular function, not necessarily monotone, with respect to a cardinality constraint $k$. We improve the best approximation factor achieved by an algorithm that has optimal adaptivity and query complexity, up to logarithmic factors in the size $n$ of the ground set, from $0.039 - \epsilon$ to $0.193 - \epsilon$. We provide two algorithms; the first has approximation ratio $1/6 - \epsilon$, adaptivity $O( \log n )$, and query complexity $O( n \log k )$, while the second has approximation ratio $0.193 - \epsilon$, adaptivity $O( \log^2 n )$, and query complexity $O(n \log k)$. Heuristic versions of our algorithms are empirically validated to use a low number of adaptive rounds and total queries while obtaining solutions with high objective value in comparison with state-of-the-art approximation algorithms, including continuous algorithms that use the multilinear extension.


翻译:我们研究的是使亚模量函数最大化的平行算法,但不一定是单调法,对于基质限制,我们研究的是美元。我们改进了最优化适应性和查询复杂性的算法所达到的最佳近似系数,从0.039美元到0.193美元,最高可达地面数的对数系数,从0.39美元到0.193美元。我们提供了两种算法;我们提供了两种算法;第一种算法:近似比率1/6美元 -\ epsilon$,适应性$O(n\log n),和查询复杂度$O(n\log k)$,而第二种算法则有0.193-\ explon$,适配值$O(\log2 n)和查询复杂性$(n\log k)美元。我们的算法的超标准版本经过经验验证,可以使用少量的适应性圆和总查询,同时获得与最新近似近似算算法相比具有高客观价值的解决办法,包括使用多线扩展的连续算法。

0
下载
关闭预览

相关内容

开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Arxiv
0+阅读 · 2021年4月30日
Arxiv
0+阅读 · 2021年4月28日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
BranchOut: Regularization for Online Ensemble Tracking with CNN
统计学习与视觉计算组
9+阅读 · 2017年10月7日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
自然语言处理(二)机器翻译 篇 (NLP: machine translation)
DeepLearning中文论坛
10+阅读 · 2015年7月1日
Top
微信扫码咨询专知VIP会员