在过去的几年里,大西洋上的敌对潜艇活动一直在稳步加强。此外,战略对手已经开发了复杂和隐蔽的潜艇,使它们更难被定位。活动的加剧加上先进的平台,使美国的对手能够挑战其在水下领域的主导地位。尽管已经对使用贝叶斯搜索方法的优化搜索策略进行了广泛的研究,但公开文献中的大多数方法都侧重于搜索静止的物体,而不是搜索由Blue潜艇进行的移动的Red潜艇。因此,我们开发了一个敌方潜艇的模型,其目标是避免被发现。随着搜索努力的消耗,根据负面搜索结果计算出敌方潜艇位置的后验概率分布。我们提出了一种寻找搜索模式的方法,该模式试图在贝叶斯框架内利用马尔科夫特性使探测的概率最大化。具体来说,我们研究了三种不同的运行窗口方法:一个简单的网络优化模型,一个在每个时间段后执行更新的网络优化模型,该模型正在规划整个路线,以及一个只提前两个时间段的动态程序。

近年来,战略对手在水下领域的进展,加上在大西洋的更多部署,给美国海军(USN)带来了新的挑战。更加隐蔽的潜艇在声学上与弗吉尼亚级SSNs相当,这使得美国海军更加难以定位和跟踪这些潜艇。这些挑战已经确定需要完善可用来寻找敌对潜艇的工具。

在这篇论文中,讨论了为潜艇上的决策者提供一个完善的搜索工具的需求,以帮助他们搜索敌对潜艇。我们研究了基本搜索算法的不同方法,该算法能够进一步发展并在潜艇上实施。

我们首先介绍了我们为Red的运动建模的方法。我们假设Red最初位于一个大小为200乘200海里的搜索区域(SR)内,该区域被描述为一个划分为400个10乘10海里单元的网格。然后,我们定义一个离散时间马尔可夫链来模拟Red在SR中的运动,链中的一个状态是Red潜艇的单元位置,过渡概率管理Red从一个单元到另一个单元的运动。为了决定单元之间的过渡概率,我们假设有关于Red任务的可用情报,这些情报以概率方式决定了Red的运行方式。

接下来,我们研究了三种算法,以帮助潜艇指挥官对Red潜艇进行搜索的能力。对于我们考虑的所有三种算法,重要的是要明确,搜索计划是在进行任何搜索之前产生的。我们首先考虑简单的网络算法(NA)算法,其中生成的搜索计划使在搜索时间范围内未发现Red的概率最小。在优化方面,这相当于找到Red的概率最大化,而且它不考虑搜索时间范围内的任何搜索结果;它是在搜索开始前计算的,不会改变。然后,我们通过利用贝叶斯定理来修改这个带有更新的算法(称为带有更新的网络算法(NAU)),在假设被搜索的单元格不包含Red的情况下,更新Red位置的概率分布。利用每个时间段的更新概率分布,网络优化算法在Blue花费搜索精力的每个剩余时间段重新运行,这给了Blue一条新的搜索路线。尽管NAU算法的结果是为剩余时间段提供了一条搜索路线,但只使用了下一个要搜索的单元。接下来,我们开发了一种动态编程(DP)算法,以最大化在下一个时间段或下一个时间段找到Red的概率。该算法还利用贝叶斯定理来进行Red位置分布的更新,假设Red从未在Blue搜索的单元中出现过。所有三种算法的完整搜索路径都是在搜索开始前计算出来的。

在我们的Blue搜索算法中,我们做了几个假设。首先,我们假设Blue概率地知道Red的起始位置和Red运动的过渡矩阵。这些信息的来源是Blue搜索者外部的传感器对Red的初始探测以及关于Red任务的情报。我们还假设Blue搜索者有完美的传感器;也就是说,如果Blue和Red同时出现在同一个小区,Blue将以100%的概率探测到Red。此外,我们假设Red和Blue在每个时间段只能移动一个单元,这本质上意味着两艘潜艇以相同的速度行驶。在我们的方案中,我们假设Blue在SR中最北面的任何一行开始搜索,如果Red离开SR,它就不会返回。如果Red在离开SR之前没有被发现,或者在搜索期间没有被发现,则搜索失败。最后,我们假设Red有一个固定的过渡矩阵;也就是说,Red对Blue的存在没有反应,在搜索期间,Red在单元格之间过渡的概率保持不变。

为了研究算法的表现,我们运行了多种方案,在这些方案中,我们改变了Red的起始特征,如起始单元和Red可能开始的不同单元的数量。然而,Red的过渡矩阵在每个场景中保持不变。对于每个场景,Blue的搜索路径在每种算法中都被计算一次。同样,对于每个场景,Red的路线被模拟了10,000次,使用假设的可能的起始单元集,每个单元都以相同的概率选择,以及每个场景的相应过渡矩阵。确定Red被Blue检测到的复制比例,如果被检测到,检测发生在哪个时间段。模拟的输出是检测到Red的估计概率,以及相应的95%置信区间和每种算法的经验CDFs。经验CDF是指在每个时间段或之前检测到Red的概率。CDF显示了每种算法在搜索工作中的表现。我们还计算了计算时间,以CPU周期衡量,以确定每种算法的计算成本。

我们的结果表明,三种算法产生了类似的结果;然而,NAU和DP算法的表现一直优于简单的NA算法。对于NAU和DP算法来说,计算出的检测概率的95%置信区间是重叠的;因此,NAU和DP算法的真实检测概率都在彼此的误差范围之内。在我们考虑的前五种情况中,最高的估计检测概率接近20%,最差的也达到8%左右。探测概率低的原因有三种可能的解释。首先,在我们考虑的场景中,Red很有可能在Blue可能探测到Red之前离开SR。另外,因为我们假设Red在单元之间的转换概率是均匀的,所以Red的路线存在高度的不确定性。最后,Blue在指定的有限时间内进行搜索。

我们还运行了一个方案,将Red的起始位置固定在一个单元中,并改变过渡矩阵中的概率,以代表Red很有可能过渡到西北方向的单元的情况。这种情况表示Red向指定方向移动的确定性更高。很明显,随着Red向某些单元的过渡概率增加,检测到Red的概率也会增加。通过这种情况,我们也表明贝叶斯更新是有效的,因为在NAU和DP算法中,如果Red不在最初最有可能出现的地方,Blue会继续找到Red;然而,使用NA算法,如果Red在有可能探测到Red的第一个时间段内不在最有可能出现的地方,那么Blue就无法探测到Red。这个结果是合理的,因为如果当Blue第一次可以探测到Red时,Red不在它最有可能出现的小区里,那么Red就没有遵循最可能的路线;Blue使用这一信息来更新NAU和DP算法中Red位置的概率分布,但对NA算法则没有。

就计算成本而言,DP算法的求解效率比其他算法高得多,需要的CPU周期比NAU算法少三个数量级。然而,我们表明,对于NAU和DP算法,计算成本随着Blue可能检测到Red的时间段的增加而增加。由于NA算法不执行更新,它的成本在整个场景中保持不变。

我们的研究结果表明,DP算法是最适合未来发展的。它的性能始终与NAU算法相似,而计算成本却大大降低。当充分发展后,这种算法可以在潜艇上使用,并在操作员可用的任务规划工具中实施。

成为VIP会员查看完整内容
37

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《使用强化学习的无人作战飞行器机队协同规划》12页论文
《教育性特种作战兵棋》美国海军研究生院84页论文
专知会员服务
48+阅读 · 2022年10月5日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
21+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年12月9日
Arxiv
14+阅读 · 2022年5月14日
Arxiv
12+阅读 · 2020年12月10日
Deep Learning in Video Multi-Object Tracking: A Survey
Arxiv
55+阅读 · 2019年7月31日
VIP会员
相关VIP内容
《使用强化学习的无人作战飞行器机队协同规划》12页论文
《教育性特种作战兵棋》美国海军研究生院84页论文
专知会员服务
48+阅读 · 2022年10月5日
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
6+阅读 · 2012年12月31日
国家自然科学基金
21+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员