Let F be a fixed finite obstruction set of graphs and G be a graph revealed in an online fashion, node by node. The online Delayed F-Node-Deletion Problem (F-Edge-Deletion Problem}) is to keep G free of every H in F by deleting nodes (edges) until no induced subgraph isomorphic to any graph in F can be found in G. The task is to keep the number of deletions minimal. Advice complexity is a model in which an online algorithm has access to a binary tape of infinite length, on which an oracle can encode information to increase the performance of the algorithm. We are interested in the minimum number of advice bits that are necessary and sufficient to solve a deletion problem optimally. In this work, we first give essentially tight bounds on the advice complexity of the Delayed F-Node-Deletion Problem and F-Edge-Deletion Problem where F consists of a single, arbitrary graph H. We then show that the gadget used to prove these results can be utilized to give tight bounds in the case of node deletions if F consists of either only disconnected graphs or only connected graphs. Finally, we show that the number of advice bits that is necessary and sufficient to solve the general Delayed F-Node-Deletion Problem is heavily dependent on the obstruction set F. To this end, we provide sets for which this number is either constant, logarithmic or linear in the optimal number of deletions.


翻译:假设 F 是一个固定的有限图阻塞集合,G 是以在线方式逐个节点透露的图形。在线延迟 F-节点删除问题(F-边删除问题)是指通过删除节点(边),直到 G 中找不到任何 F 中的图的同构诱导子图为止,使 G 无 H。任务是将删除次数最小化。建议复杂度是一种模型,在该模型中,在线算法可以访问无限长度的二进制带,其中一个预言可以编码信息来提高算法的性能。我们对最优地解决删除问题所需的建议位数感兴趣。在这项工作中,我们首先对 F 由单个任意图 H 组成的延迟 F-节点删除问题和 F-边删除问题的建议复杂性给出了基本紧密的界限。然后,我们证明了如果 F 仅由未连接的图或仅由连接的图组成,则可以利用用于证明这些结果的部件来给出节点删除情况下的紧密界限。最后,我们证明了解决一般的延迟 F-节点删除问题所需的建议位数严重依赖于阻塞集 F。为此,我们提供了一些集合,其中此数字是恒定的、对数的或线性的,最优删除次数。

0
下载
关闭预览

相关内容

《战斗模拟的自动火力支援规划》美海军
专知会员服务
67+阅读 · 2023年3月8日
【WWW2021】REST:关系事件驱动的股票趋势预测
专知会员服务
33+阅读 · 2021年3月9日
专知会员服务
123+阅读 · 2020年9月8日
图节点嵌入(Node Embeddings)概述,9页pdf
专知会员服务
39+阅读 · 2020年8月22日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
56+阅读 · 2020年1月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
12+阅读 · 2018年6月25日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年5月18日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
Efficiently Embedding Dynamic Knowledge Graphs
Arxiv
14+阅读 · 2019年10月15日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
已删除
将门创投
12+阅读 · 2018年6月25日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
5+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员