A mobile agent navigating along edges of a simple connected graph, either finite or countably infinite, has to find an inert target (treasure) hidden in one of the nodes. This task is known as treasure hunt. The agent has no a priori knowledge of the graph, of the location of the treasure or of the initial distance to it. The cost of a treasure hunt algorithm is the worst-case number of edge traversals performed by the agent until finding the treasure. Awerbuch, Betke, Rivest and Singh [3] considered graph exploration and treasure hunt for finite graphs in a restricted model where the agent has a fuel tank that can be replenished only at the starting node $s$. The size of the tank is $B=2(1+\alpha)r$, for some positive real constant $\alpha$, where $r$, called the radius of the graph, is the maximum distance from $s$ to any other node. The tank of size $B$ allows the agent to make at most $\lfloor B\rfloor$ edge traversals between two consecutive visits at node $s$. Let $e(d)$ be the number of edges whose at least one extremity is at distance less than $d$ from $s$. Awerbuch, Betke, Rivest and Singh [3] conjectured that it is impossible to find a treasure hidden in a node at distance at most $d$ at cost nearly linear in $e(d)$. We first design a deterministic treasure hunt algorithm working in the model without any restrictions on the moves of the agent at cost $\mathcal{O}(e(d) \log d)$, and then show how to modify this algorithm to work in the model from [3] with the same complexity. Thus we refute the above twenty-year-old conjecture. We observe that no treasure hunt algorithm can beat cost $\Theta(e(d))$ for all graphs and thus our algorithms are also almost optimal.


翻译:移动代理商沿简单连接图的边缘航行, 要么是有限的, 要么是可计算到的无限, 必须在一个节点中找到隐藏在某个节点中的惰性目标( 宝藏) 。 此任务被称为“ 寻宝 ” 。 该代理商对图形、 宝藏位置或初始距离没有先验的知识。 宝藏搜索算法的成本是代理商在找到宝藏之前完成的最差的边际旅行次数。 Awerbuch、 Betke、 Rivest 和 Singh [3] 考虑过的图形探索和寻宝, 在一个限制模型中, 代理商拥有一个只能以起始节点美元补充的燃料箱( 宝藏 ) 。 储箱的大小是 $ ( $ ) 实际不变 $ ( 美元, 称为图的半径), 是从美元到任何其他节点的最大距离。 美元, 我们找到的储量和 美元 美元 的罐子在两个连续访问中, 美元, 以 美元 美元 美元 最低 的 的 美元 的 的 的 成本 值 的 的 值 。

0
下载
关闭预览

相关内容

迁移学习简明教程,11页ppt
专知会员服务
106+阅读 · 2020年8月4日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
专知会员服务
158+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
已删除
将门创投
4+阅读 · 2018年11月20日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年4月4日
VIP会员
相关VIP内容
迁移学习简明教程,11页ppt
专知会员服务
106+阅读 · 2020年8月4日
深度强化学习策略梯度教程,53页ppt
专知会员服务
176+阅读 · 2020年2月1日
专知会员服务
158+阅读 · 2020年1月16日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
2019年机器学习框架回顾
专知会员服务
35+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
相关资讯
已删除
将门创投
4+阅读 · 2018年11月20日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员