We present a parameterized dichotomy for the \textsc{$k$-Sparsest Cut} problem in weighted and unweighted versions. In particular, we show that the weighted \textsc{$k$-Sparsest Cut} problem is NP-hard for every $k\geq 3$ even on graphs with bounded vertex cover number. Also, the unweighted \textsc{$k$-Sparsest Cut} problem is W[1]-hard when parameterized by the three combined parameters tree-depth, feedback vertex set number, and $k$. On the positive side, we show that unweighted \textsc{$k$-Sparsest Cut} problem is FPT when parameterized by the vertex cover number and $k$, and when $k$ is fixed, it is FPT with respect to the treewidth. Moreover, we show that the generalized version \textsc{$k$-Small-Set Expansion} problem is FPT when parameterized by $k$ and the maximum degree of the graph, though it is W[1]-hard for each of these parameters separately.


翻译:我们提出了问题 \textsc{$k$-Sparsest Cut} 的参数化二分法,包括加权和非加权版本。特别地,我们证明了加权 \textsc{$k$-Sparsest Cut} 问题对每个 $k \geq 3$ 都是 NP-hard 的,即使在顶点覆盖数有界的图上也是如此。此外,当参数为树的深度、反馈顶点集数量和 $k$ 的组合参数时,非加权 \textsc{$k$-Sparsest Cut} 问题是 W [1]-hard 的。在积极的一面上,我们展示了当参数为顶点覆盖数字和 $k$ 时,未加权 \textsc{$k$-Sparsest Cut} 问题是 FPT 的。当 $k$ 固定时,它相对于树宽是 FPT 的。此外,我们展示了广义版本 \textsc{$k$-Small-Set Expansion} 问题在参数为 $k$ 和图的最大度数时是 FPT 的,虽然它对于每个单独的参数都是 W [1]-hard 的。

0
下载
关闭预览

相关内容

FPT:International Conference on Field-Programmable Technology。 Explanation:现场可编程技术国际会议。 Publisher:IEEE。 SIT: http://dblp.uni-trier.de/db/conf/fpt/
【硬核书】矩阵代数基础,248页pdf
专知会员服务
86+阅读 · 2021年12月9日
概率论和机器学习中的不等式
PaperWeekly
2+阅读 · 2022年11月9日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
RL解决'LunarLander-v2' (SOTA)
CreateAMind
62+阅读 · 2019年9月27日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
VIP会员
相关VIP内容
【硬核书】矩阵代数基础,248页pdf
专知会员服务
86+阅读 · 2021年12月9日
相关资讯
概率论和机器学习中的不等式
PaperWeekly
2+阅读 · 2022年11月9日
GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
RL解决'LunarLander-v2' (SOTA)
CreateAMind
62+阅读 · 2019年9月27日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
16+阅读 · 2019年1月18日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员