AI如何促进态势感知?2022美国空军AFRL等「态势感知」万字综述论文,24也pdf阐述智能战场态势感知技术、挑战和前景

2022 年 3 月 19 日 专知

智能战场态势感知】2022美国空军AFRL最新综述论文23页:「态势感知」技术、挑战和前景



作  者

Arslan Munir:堪萨斯州立大学计算机科学系

Alexander Aved :美国空军研究实验室 (AFRL)

Erik Blasch:AFRL 空军科学研究办公室 (AFOSR)


摘  要

态势感知 (SA) 被定义为对环境中实体的感知、对其意义的理解以及对其近期状态的预测。从空军的角度来看,SA 是指理解和预测空域内红蓝飞机和地面威胁的当前和未来部署的能力。在本文中,我们提出了一个 SA 和动态决策模型,该模型结合了人工智能和动态数据驱动的应用系统,以根据不断变化的情况调整测量和资源。我们讨论了 SA 的测量以及与 SA 量化相关的挑战。然后,我们阐述了大量有助于改进 SA 的技术,从不同的情报收集模式到人工智能,再到自动视觉系统。然后,我们介绍了 SA 的不同应用领域,包括战场、灰色地带战、军事和空军基地、国土安全和国防以及关键基础设施。最后,我们以对 SA 提出未来的见解。


关键词: 态势感知;动态数据驱动系统;人工智能;合成视觉系统;雾计算;灰色地带战


1. 引言


态势感知 (SA) 可以定义为对环境中实体的认知、对其意义的理解以及对其近期状态的预测。从空军的角度来看,SA 是指在一定空间内设想红色和蓝色飞机的当前和未来部署以及地面威胁的能力。Endsley 的 SA 模型 [1] 已被广泛采用,它包括三个不同的阶段或层次:感知、理解和预测。美国国防部 (DOD) 的军事和相关术语词典将空间 SA 定义为:“空间物体和空间作战所依赖的作战环境的必要基础、当前和预测知识和特征”[2]。SA 通常被认为包含评估(机器)、意识(用户)和理解(用户-机器组合)[3]。


尽管许多领域都需要 SA,例如紧急情况和/或灾难响应、工业过程控制 SA 和基础设施监控,但 SA 对于军事和空军尤其重要。图 1从军事和空军的角度描述了 SA 的概况。SA 是军事指挥和控制 (C2) 不可分割的一部分。美国国防部军事和相关术语词典将 C2 定义为:“在完成任务时,由适当指定的指挥官对指定和附属部队行使权力和指挥”[2]。C2 可以被视为由 SA、计划、任务和控制组成。C2 系统设计的目的是有选择地向指挥官展示形势,以便指挥官了解形势,然后采取最佳行动。SA 不仅对指挥官而且对下马操作员都是必不可少的。为了使下车操作员有效参与,他们不仅必须获取和理解有关其环境的信息,而且还必须利用这些信息来预测不久的将来的事件,从而相应地计划和调整他们的行动。


图 1. 态势感知概述


SA 对空军来说是必不可少的,被认为是空战交战中的决定性因素 [4]。混战中的生存很大程度上依赖于 SA,因为它依赖于观察敌方飞机当前的移动并在敌方自己观察他/她的飞机移动之前几秒钟预测其未来的行动。SA 也可以被视为等同于美国空军 (USAF) 战争理论家约翰·博伊德上校所描述的观察-定向-决策-行动 (OODA) 循环的“观察”和“定向”阶段 [5]。战斗中的制胜策略是通过比对手更好的 SA 进入对手的 OODA 循环,从而不仅比对手更快地做出自己的决定,而且还可能以不可观察或不可理解的方式改变局势在给定的时间内由对手。失去一个人的 SA 就等于脱离了 OODA 循环。由于飞行员要应对较高级别的航空交通、恶劣天气(例如风暴、大雾)以及最近在空域的无人机(UAV)等许多艰巨的情况,他们需要配备先进的 SA 系统来应对在这些对立的条件下。本文从军事和空军的角度讨论 SA。我们在本文中的主要贡献如下:


  • 我们从军事和空军的角度定义和阐述 SA。
  • 我们提出了一个 SA 和动态决策模型。
  • 我们讨论 SA 的测量,确定 SA 评估的指标,以及与 SA 量化相关的挑战。
  • 我们讨论了有助于提高 SA 的不同技术和技术。
  • 我们概述了 SA 的不同应用领域,包括战场、城市战、灰色地带战、国土安全和国防、灾难响应管理和关键基础设施。


本文的其余部分组织如下。第 2 节介绍了 SA 和相关决策的模型。第 3 节讨论 SA 的测量方法以及与测量 SA 相关的挑战。第 4 节详细介绍了改进 SA 的技术和技术。第 5 节概述了 SA 的不同应用领域。最后,第 6 节总结了本文。


2. SA 和决策模型


在本节中,我们将介绍并讨论 SA 和相关决策的模型。 图 2描绘了我们的 SA 和动态决策模型,该模型的灵感来自 Endsley 的 SA 模型 [6],该模型已被广泛采用。该模型具有SA 核心,而感知和决策元素围绕 SA 核心构建。大量传感器感知环境以获取环境状态。将感知信息融合在一起,去除感知数据中的冗余,例如不同相机捕获的多个相似视图或近距离不同传感器感知的数量,同时也克服了从单一来源获取数据的缺点,例如作为遮挡,环境照明条件的变化和/或环境中的混乱元素。融合后的数据然后被传递到 SA 核心,它包括三个级别或阶段 [7]。

图 2. SA 模型和动态决策

感知——1 级 SA:获得 SA 的第一阶段是感知周围实体的状态、属性和动态。例如,飞行员需要辨别环境中的重要实体,例如其他飞机、地形和警示灯以及它们的相关特征。
理解——2 级 SA:SA的第二个阶段是对情况的理解,它基于断开的 1 级 SA 元素的整合。2 级 SA 比仅仅了解环境中的元素更进一步,因为它处理的是对这些元素与运营商目标相关的重要性的理解。简而言之,我们可以将 SA 的第二阶段描述为对环境中实体的理解,特别是在集成在一起时,与运营商的目标相关. 例如,飞行员必须了解感知元素相互关联的重要性。业余操作员可能能够达到与更有经验的操作员相同的 1 级 SA,但可能会挣扎以吸收感知元素以及相关目标以充分理解情况(2 级 SA)。
预测——3 级 SA:SA的第三级涉及至少在短期内预测环境中实体的未来行动的能力。这种预测是基于对环境中元素的状态和动态的认识以及对情况的理解来实现的。简而言之,我们可以将 SA 的第三层描述为对未来环境中实体状态的预测或估计,至少在不久的将来是这样。例如,从感知和理解的信息中,有经验的飞行员/操作员预测可能的未来事件(3 级 SA),这为他们提供知识和时间来确定最合适的行动方案以实现其目标 [1]。

如图 2所示,SA 核心还从战略或作战级别的指挥官那里接收有关 SA 目标或目的的输入。 我们的模型通过增加对人工智能(AI) 辅助决策和资源管理的支持,增强了 Endsley [7] 的 SA 模型的感知、理解和预测。感知是通过标准信息融合和资源管理循环来解决的。此外,为了更好地根据不断变化的情况管理资源,动态数据驱动的应用系统(DDDAS) 模块向资源管理模块提供输入,该模块管理感知环境的传感器和 SA 核心中的计算资源。DDDAS 是一种范式,其中应用系统的计算和仪表方面在反馈控制回路中动态同化,以便仪表数据可以动态融合到应用程序的执行模型中,而执行模型可以反过来控制仪器[8]。

在图 2中,DDDAS 模块帮助引导测量仪器和数据增强的信息融合过程,从物理知识中改进环境中感兴趣实体的 SA。 DDDAS 模块可以帮助引导和重新配置传感器,以增加感知数据的信息内容,从而增强环境中感兴趣活动的 SA [8]。DDDAS 模块还通过匹配本地化信息内容的预期熵来帮助调整计算资源,并相应地将更多的计算资源分配给导致高信息熵的实体。例如,在监视应用的情况下,特定位置的感兴趣对象的存在将需要高分辨率传感和优先计算,以实现实时检测和跟踪这些对象,而没有感兴趣活动的区域将接受粗略感应和SA 没有明显恶化的计算。使用 DDDAS 数据增强物理知识的一个例子是在目标跟踪中使用道路约束作为知识 [8 , 9]。因此,具有增强数据的 DDDAS 范式为利用深度学习补充传统的信息融合方法提供了额外的机会,用于 SA 的各种应用,例如使用 GPS 数据进行自动车辆跟踪 [10]、使用图像数据进行交通监控 [11]、和运输调度[12]。

由于最近人工智能的进步,人工智能已成为 SA 核心和动态决策不可或缺的一部分。 AI 帮助操作员/飞行员了解情况(2 级 SA),然后对环境中实体的未来行动做出预测(3 级 SA)。因此,人工智能模型的稳健性以及操作员的能力、经验和训练水平都决定了操作员的理解水平和未来预测的准确性。基于获得的理解和预测,决策由人工智能模型向指挥官推荐,然后指挥官根据人工智能的输入和评估的情况做出适当的决定。最后,决策由运营商在战术层面实施。要执行的决定范围很广,包括人员和设备的定位、武器的发射、医疗后送和后勤支持。


3. 衡量态势感知


设计 SA 系统时出现的一个基本问题是,所设计的系统在促进 SA 方面是否比其他一些交替系统更好。为了回答这个问题,设计师需要一种方法来评估正在开发的用于增强 SA 的概念和技术。SA 测量方法应包含多种系统设计概念,包括 [13]:(i) 显示符号,(ii) 高级显示概念,例如 3-D 显示器、语音控制、平板显示器、平视显示器 (HUD) ) 和头盔显示器 (HMD) 等,(iii) 电子、航空电子和传感概念,(iv) 信息融合概念,(v) 自动化,(vi) 完整性,(vii) 可信赖性,以及 (viii) ) 训练方法。SA 评估的一些指标包括:(i) 及时性,(ii) 准确性,(iii) 信任,(iv) 可信度(可以通过检测概率和误报概率的混淆矩阵来描述),(v) 可用性(信息和系统) ,(vi) 工作量,(vii) 成本,(viii) 注意力,(ix) 性能(成功完成任务;也可用于评估做出的决定),以及 (x) 范围(本地与全球或单一智能(单 INT)与多智能(多 INT))。
Uhlarik 和 Comerford [14] 描述了在评估 SA 测量方法的有效性时相关的结构类型:
  • 表面效度:根据主题专家的判断,SA 测量方法似乎可以测量 SA 的程度。
  • 建构效度: SA 测量方法在何种程度上得到 SA 的合理理论或模型的支持。
  • 预测效度: SA 测量方法可以预测 SA 的程度。
  • 并发有效性: SA 测量方法与 SA 的其他测量相关的程度。

3.1 SA 评估技术

Nguyen等人[15] 对 SA 评估方法进行了详细审查。SA 评估技术利用不同类型的探针来测量 SA。这些探针包括 [15]:
冻结探测技术:在冻结探测技术中,受试者(飞行员)执行的任务在飞行模拟器训练中被随机冻结。所有的显示都是空白的,并且一组查询被呈现给主题。受试者根据他/她对当前环境(即冻结点)的知识和理解来回答问题。记录受试者的反应并与当前环境的实际状态进行比较以提供 SA 分数。
实时探测技术:在实时探测技术中,查询在任务执行期间的相关点呈现给主体,而不会冻结任务。记录受试者对查询的响应以及响应时间以确定 SA 分数。
试验后自我评分技术:每个受试者在任务执行后通过评分量表对他/她自己的 SA 进行主观评估。由于自评是在试验后进行的,自评技术快速且易于使用,但主观性高,取决于受试者的任务/任务表现,可能无法准确反映实际收到的 SA在任务期间,因为人类经常表现出对过去心理事件的不良回忆[15]。
观察者评级技术:主题专家 (SME) 通过在任务执行期间观察主题的行为和表现来提供 SA 评级。这些技术是非侵入性的,但是,观察者分配的 SA 评级是模棱两可的,因为准确观察 SA 的内部过程是不可行的。
基于绩效的评分技术: SA 评分是根据任务/任务期间受试者的表现分配的。记录和分析任务事件期间的几个性能特征以确定 SA 评级。基于表现的评分有一个缺点,因为这些技术假设受试者的有效表现对应于良好的 SA,这不一定是正确的,因为表现还取决于受试者的经验和技能。
基于过程指数的评级技术:基于过程指数的 SA 评级技术记录、分析和评级主体在任务执行期间遵循以确定 SA 的某些过程。在任务执行期间观察对象的眼球运动是过程索引的示例之一。基于过程指数的评级有一个缺点,因为受试者可能专注于眼睛跟踪设备所指示的某个环境元素,但受试者不能感知该元素或情况。
在本节中,我们将讨论一些常用的 SA 测量技术,即:(i)NASA 任务负荷指数(TLX)[16],(ii)SA 全局评估技术(SAGAT)[13],(iii ) SA 评级技术 (SART) [17],以及 (iv) 关键决策方法 (CDM) [18]。表 1提供了基于前面讨论的评估指标的不同 SA 测量技术的比较。下面讨论这些技术。

表 1. SA 评估技术的比较

3.1.1 美国宇航局 TLX

工作量是任何用户操作的一个重要因素,因为在任务要求和分配的执行各种任务的时间之间存在一个最佳平衡点。Hart 和 Staveland 于 1988 年开发了 TLX [ 16 ]。NASA TLX 采用试验后自我评估探测技术。TLX 提供用户关于 SA 指标的主观报告,通常用于估计工作量。用户对报告的问题的回答给出了对任务的心理、身体和时间需求的相对评估。NASA TLX 侧重于SA 评估的及时性、工作量和性能指标。

3.1.2 SAGAT

SAGAT [13] 已被提议作为一种测量飞行员的 SA 的方法。SAGAT 之所以这样命名,是因为该技术区分了本地 SA 和全局 SA。SAGAT 利用冷冻探针技术来确定 SA 等级。在 SAGAT 中,飞行员在人在回路模拟中使用给定的飞机系统飞行任务场景。在某个随机时间点,模拟停止,并向飞行员提供一份问卷,以确定他/她对当时情况的了解。由于在一个站点中向飞行员询问有关他/她的 SA 的所有问题是不可行的,因此在每个站点中向飞行员询问随机选择的 SA 查询的子集。对于执行相同任务的几名飞行员,这种随机抽样过程会重复多次,以获得统计意义。这种随机抽样方法允许一致性和统计有效性,从而可以比较不同试验、飞行员、系统和任务的 SA 分数。在试验完成时,将根据模拟中实际发生的情况检查查询答案。感知和实际情况的比较提供了飞行员 SA 的衡量标准。
SAGAT 评分分为三个区域:即时、中间和长期。SAGAT 还能够评估显示器的象征意义和概念。某些显示器仅捕获本地 SA,而其他显示器呈现全局 SA。SAGAT 将确定用户/飞行员是专注于单一智能产品还是利用来自多智能显示器的信息融合来回答来自探测器的查询。一个例子是来自图像情报的单目标跟踪或组跟踪。来自全动态视频 (FMV) 的单个目标跟踪可能无法捕获可以从高海拔视点(例如广域运动图像 (WAMI))获取的全局情况信息。SAGAT 注重准确性、可信度、SA 评估的成本和性能指标。
SAGAT 的主要限制是必须停止模拟才能获得飞行员感知的 SA 数据。此外,SAGAT 是为空对空战斗机任务开发的,并且不存在用于评估包含空对空、空对地和空对海场景的全球结构的 SA 的 SA 测量工具.

3.1.3 SART

SART 问卷由 Taylor 于 1990 年开发 [17]。SART 使用试验后自我评价探测技术。SART 提供了飞行员/用户在执行期间的注意力或意识的主观意见。SART 问卷包括情境稳定性/不稳定性、情境复杂性、情境可变性、对情境的警觉性、注意力集中、注意力分配、备用心智能力、信息量和情境熟悉度等要素。可以从 SART 评估信任、可信度、工作量、注意力和绩效等指标。
我们注意到,随着用户熟悉用于任务的工具,注意力、工作量和信任可能是 SART 不断发展的评估。SART 中的注意力划分涉及单智能 (single-INT) 诊断与组合多智能 (multi-INT) 呈现。为了获得多 INT,SA 系统不应要求用户在单个 INT 之间切换,因为切换会增加工作量,需要额外的注意力,甚至会造成不稳定或误解。Multi-INT 融合显示是增强 SA 的首选,因为 Multi-INT 显示可以减少数据过载、增加注意力并支持理解。SART 中与工作量评估最相关的要素是备用心智能力和信息量。备用心智能力问卷检查用户是否可以专注于单个事件/变量或是否可以使用多 INT 演示跟踪多个事件/变量。信息量问卷检查用户使用SA系统获得的信息量。该问卷还检查是否在需要的时间和地点向用户提供了及时和可操作的数据。信息量应包括相关信息并提供有关情况的知识。信息量包括呈现给用户的数据的类型、质量和相关性,因为过多的数据会使用户负担过重并给情况分析增加混乱。

3.1.4 CDM 

CDM 是由 O'hare 等人开发的。1998年 [18]。CDM 使用审后自评探测技术。CDM 已用于确定在执行期间使用了哪些决策点。CDM 问卷包含有关目标规范、线索识别、决策期望、决策信心、信息可靠性、信息集成、信息可用性、信息完整性、决策备选方案、决策阻塞、决策规则和决策类比等要素。目标规范探测检查用户在不同决策点的具体目标。提示识别探针检查用户在制定决策时正在寻找的特征。决策期望探测检查做出的决策是否是事件/任务过程中的预期决策。决策置信度调查评估对所做决策的置信度,以及该决策在某些改变的情况下是否会有所不同。信息可靠性查询分析用户是否怀疑可用信息的可靠性或相关性。信息集成查询检查可用信息是否以集成方式呈现,并突出显示重要实体、这些实体之间的关系和事件。信息可用性探测在决策时验证足够信息的可用性。信息完整性探测分析呈现给用户的信息在决策时是否完整,以及是否有任何附加信息可以帮助用户制定决策。决策替代查询检查是否存在任何可能的或正在考虑的替代决策,而不是做出的决定。如果在决策过程中的任何阶段,用户发现难以处理和/或整合可用信息,则决策阻断探针分析。决策规则探测检查用户是否可以根据他的经验制定可以帮助其他人成功做出相同决策的规则。最后,决策类比查询分析用户是否可以将决策过程与之前做出类似/不同决策的经验联系起来。的指标 用户发现难以处理和/或整合可用信息。决策规则探测检查用户是否可以根据他的经验制定可以帮助其他人成功做出相同决策的规则。最后,决策类比查询分析用户是否可以将决策过程与之前做出类似/不同决策的经验联系起来。的指标 用户发现难以处理和/或整合可用信息。决策规则探测检查用户是否可以根据他的经验制定可以帮助其他人成功做出相同决策的规则。最后,决策类比查询分析用户是否可以将决策过程与之前做出类似/不同决策的经验联系起来。的指标可以从 SART 评估及时性、准确性、信任度、可信度、可用性和性能。

3.2  衡量 SA 的挑战

SA 可以通过可量化的指标(例如时间和准确性)凭经验评估操作员的绩效来衡量,并将这些指标与没有 SA 帮助的类似测试的结果进行比较。然而,量化 SA [9,19]的工作很少。大多数驾驶舱设计师依靠推测来估计替代设计提供的 SA。大多数现有的测量 SA 的方法都存在各种缺点,包括但不限于:
主观性:测量 SA 的技术可以要求指挥官、操作员和/或飞行员对他/她的 SA 进行评分(例如,从 1 到 10 的等级)。这种方法有严重的局限性,因为受试者不知道环境中实际发生了什么,并且他/她对自己的 SA 进行评分的能力是主观的 [20]。此外,受试者的评分可能会受到任务输出的影响,也就是说,当任务通过侥幸或良好的 SA 成功时,受试者很可能会报告良好的 SA,反之亦然。此外,如果评估是由不同的飞行员、操作员或指挥官进行的,那么对给定系统的 SA 评估可能会存在显着差异。
生理学:获得受试者思想的准确图像以始终估计 SA 是具有挑战性的。P300 (P3) 和脑电图 (EEG) 测量为测量认知功能提供了希望,但不能确定受试者对环境中元素的理解。来自生物方法的 SA 被用作“压力”的间接测量,并且可以与性能一起使用;然而,生理测量和心理表现之间的良好匹配仍然不是众所周知的[21]。
调查:可以对受试者进行详细的问卷调查,了解他们通过 SA 系统获得的 SA。然而,人们的回忆受到兴趣活动和问卷管理之间的时间和中间事件的影响[13,20]。这个缺陷可以通过在使用 SA 模拟器时询问他们的 SA 主题来克服。然而,这种方法也有缺点。首先,在感兴趣的情况下,受试者工作量很大,可能会阻止他/她回答问题。其次,这些问题可以提示受试者注意显示器上的请求信息,从而改变他/她的真实 SA。
局限性:许多方法旨在一次评估单个设计问题 [19]。在这种情况下,受试者可能会无意中将他们的注意力转移到正在评估的问题上,这将导致该问题对受试者的 SA 产生不真实的影响。由于SA本质上是一个全局结构,如果设计者要充分解决主体(例如,指挥官、操作员、飞行员)的SA需求,则需要对SA进行全局度量。
覆盖范围:表1表明当代 SA 测量技术通常侧重于一些评估指标。例如,NASA TLX 侧重于及时性和工作量;SAGAT强调准确性、可信度和成本;SART 以吞吐量为目标;CDM 注重信誉。因此,挑战在于开发比现有测量技术涵盖更多指标的 SA 评估技术。

3.3 SA 指标

已经开发了各种指标来评估 SA 系统的价值。这些指标可以分为五个类别或维度[19]:(i)置信度,(ii)准确性/纯度,(iii)及时性,(iv)吞吐量和(v)成本。表 2总结了 SA 系统的指标。

表 2. 态势感知系统指标

置信是衡量系统检测到真实活动的能力的指标,通常报告为概率。有用于量化置信度的三个指标:(a)精度,(b)召回,和(c)碎片。
精度是 SA 系统做出的正确检测/预测相对于检测到的活动总数的百分比。精度可以表示为:
其中,真正的检测意味着检测到活动并且是真实或正确的检测,而错误检测意味着检测到活动,但是是不正确的检测/预测。
召回是 SA 系统正确识别的活动相对于基本事实定义的已知活动总数的百分比。召回率可以表示为:
其中误报意味着活动被预测为负面但实际上是正面的,或者没有正确检测到真实活动。
碎片是报告为多项活动而应报告为一项活动的活动的百分比。例如,在跳岛攻击中,目标计算机受到威胁,然后用于对其他计算机发起攻击。为了正确检测此攻击,目标成为攻击者的所有实例都应包含在与穿过该岛的原始攻击者相同的轨迹中。很多时候,SA 系统中的融合引擎将无法将后续证据与原始攻击正确关联,从而将攻击报告为两个或多个攻击轨迹。我们注意到一个攻击轨迹是指来自多个数据流的证据(即从原始传感器数据生成的事件),这些数据流融合在一起以识别潜在的攻击[22]。碎片化看似误报,因为具有碎片化的 SA 系统将现有活动识别为新活动,而不是将现有活动与复杂活动相关联。分片可以表示为:
准确性/纯度是指预测/检测到的活动的质量,即观察是否正确匹配并与正确的活动轨迹相关联。两个指标用于量化纯度:(a)错误分配率,和(b)证据召回。错误分配率定义为错误分配给给定活动的证据或观察的百分比。错配率可以表示为:
错误分配率有助于评估 SA 系统是否将证据分配给不相关的活动轨道,或者 SA 系统是否仅将直接有用的证据分配给活动轨道。
证据召回是检测到的证据或警报相对于已知或实际事件总数的百分比。证据召回可以表示为:
证据召回量化了有多少可用的证据真正被利用。
已经观察到,在某些 SA 领域,例如网络 SA 系统,纯度指标并没有被证明很有帮助。如果错误分配率很高,则表明基础数据的相关性或关联性不正确;然而,它并不能说明检测到的攻击的质量[ 22 ]。关于证据召回指标,直觉上我们会认为如果使用更多的证据,攻击检测会更准确,置信度高(高精度和高召回率);然而,根据经验,[ 22 ]没有观察到网络 SA 系统中的证据数量和检测质量之间的关系。相反,有时更少的证据会导致更好的检测。这意味着只有少数真正相关的事件意味着攻击。
及时评估 SA 系统在特定 SA 域的时间要求内响应的能力。及时性通常通过延迟度量来衡量。延迟通常指事件发生与 SA 系统发出警报之间的时间。及时性表征 SA 系统在特定 SA 域的时间要求内响应的能力。及时性维度对于评估 SA 系统是否不仅可以快速识别活动,而且还提供足够的时间来对该活动采取行动(如果需要)提供了重要的信息。
吞吐量衡量单位时间内完成的工作量(例如,任务、事务)。在 SA 上下文中,吞吐量是指每单位时间检测到的事件数。
成本通常根据两个指标来衡量:(a) 成本效用,和 (b) 加权成本。成本效用估计 SA 系统上投资成本的效用。由于在给定 SA 系统上使用的资源有限,因此由于对给定 SA 系统的投资而放弃了最佳替代活动的“机会成本”。加权成本度量标准旨在通过考虑以正权重检测到的活动或攻击的类型来捕捉 SA 系统的有用性,同时以负权重惩罚系统的误报。不同的权重被分配给不同类别的活动或攻击。然后,加权成本是分配给检测到的活动或攻击的值(权重)之和与地面实况中活动/攻击轨迹的值之和的比率。


4. 提高态势感知的技巧和技术


改进 SA 一直处于军事技术进步的前沿。军方已利用各种技术创新来改进 SA。虽然不可能涵盖已用于改进 SA 的所有技术和技术,但本节概述了其中一些正在考虑或已被军队和/或空军采用以增强 SA 的技术进步。

4.1 情报收集模式

SA 依赖于从多个来源收集的情报,例如人类、信号、数据(例如,文本、音频、视频)和社交媒体。为了获得更好的 SA 并提高所获取 SA 的准确性,需要来自多个来源的情报来过滤从特定情报来源报告的差异。有助于改进 SA 的不同情报来源包括人类情报 (HUMINT)、开源情报 (OSINT)、测量和签名情报 (MASINT)、信号情报 (SIGINT)、图像情报 (IMINT) 和地理空间情报 (GEOINT)。

4.2 传感器和传感器网络

技术进步导致了多种传感器的开发,其中许多传感器已在监视和 SA 系统中得到应用。通常用于增强 SA 的传感器包括位置传感器、可见光(红、绿、蓝 (RGB))摄像头传感器、夜视摄像头传感器、红外图像传感器、紫外图像传感器、运动传感器、接近传感器、烟雾/火传感器、枪声探测器和定位器、远程传感器和合成孔径雷达。这些传感器通常以无线方式连接在一起,为给定区域提供监视覆盖。地理定位系统是基于传感器的系统的一个示例,通常是监视和 SA 应用程序的一部分。军事地理定位系统旨在克服多路径并提供小于 1 m (< 1 m) 开阔地形中的测距精度和建筑物内小于 2 m (<2 m) 的精度。为了实现这些目标,军事装备的地理定位系统依赖于各种传感器。用于军事设备的许多地理定位系统集成了来自互补传感器的测量,例如全球定位系统 (GPS)、惯性测量单元、到达时间、气压传感器和磁罗盘,以提供比任何技术都更精确的融合解决方案个别传感器。

大量情报、监视和侦察 (ISR) 传感器收集的数据增强了决策者的 SA,并帮助他们更好地了解他们的环境和威胁。然而,多种因素阻碍了最终用户的 SA 增强,包括不兼容的数据格式、带宽限制、传感器持久性(传感器连续感知的能力)、传感器重访率(传感器观察同一地理点的速率;该术语主要用于移动传感器,例如卫星或无人机传感)和多级安全[ 23 ]。此外,随着传感器数据量的增加,挑战在于识别最重要的信息片段,融合该信息,然后以合适的格式将该信息呈现给最终用户。

最近在军队和空军中,需要访问传感器信息的最终用户数量不断增加。例如,此信息的最终用户可能是制定目标决策的战斗机(例如,F-16 战隼、F-35 闪电 II)的飞行员、保卫城市的军事指挥官、试图在镇压民间骚乱,或联合空中作战中心 (CAOC) 战略团队成员制定空中作战战略计划 [ 23 ]。尽管每个最终用户的具体信息要求、安全级别和带宽限制会有所不同,但对实现和维护 SA 的及时、准确、相关和可信信息的总体需求保持不变。分层传感的概念空军研究实验室 (AFRL) 传感器理事会已设想向决策者提供融合的、多源、多维和多光谱的传感器数据,无论决策者位于何处,都符合他们的需求,其目标是提高决策者的 SA。

4.3 软件定义无线电

软件定义无线电 (SDR) 是一种无线电通信系统,它在软件而不是硬件中实现了许多无线电组件,例如混频器、调制器、解调器、纠错和加密,因此可以更轻松地重新配置和适应不同的沟通情况。美国军方的联合战术无线电系统 (JTRS) 计划的任务是用一组 SDR 替换现有的军用无线电,这些无线电可以通过简单的软件更新在新的频率和模式(波形)下工作,而不是需要多个无线电用于不同的频率和模式并要求更换电路板进行升级 [24]。后来 JTRS 转变为联合战术网络中心 (JTNC) [25]。SDR 经常用于小型单位运营商的 SA 系统,以便为作战人员提供一个系统,该系统可以在限制性环境,特别是城市环境中提供可靠和灵活的通信。SDR 提供广泛的调谐范围(例如,从 20 MHz 到 2500 MHz [26]),使运营商的 SA 系统能够选择最佳频段,以在各种受限地形中保持链路连接。此外,SDR 允许自适应直接序列扩频波形(例如,从 0.5 MHz 到 32 MHz [26]) 用于调制。SDR 的其他潜在可调参数包括无线电设置的适应(例如,传输功率、频率、天线增益、调制、编码、基带滤波、信号增益控制、采样和量化)、数据链路层参数(例如,信道监控和关联方案、传输和睡眠调度、传输速率和错误检查)和网络层参数(例如,路由、服务质量管理和拓扑控制)[27]。

4.4 人工智能

人工智能的进步对 SA 有重大影响。人工智能可以极大地提高下车操作员、士兵和飞行员对环境的认识,因为基于人工智能的应用程序可以通知士兵红军的存在和移动,从而帮助识别和缓解威胁。AI 在 SA 的“投射”阶段(3 级 SA)特别有用。AI 可以帮助进行实时分析和预测以改进 SA。对于军事应用,人工智能可以为地面上的步行操作员和飞行员提供可操作的情报和决策协助。人工智能还可以通过实现预测性维护、提高操作设备的安全性和降低运营成本来促进物流。此外,人工智能可以通过在军用弹药耗尽之前跟踪和供应军用弹药来促进部队的战备状态。人工智能也是人机协作工作不可或缺的一部分,旨在促进人类与复杂机器的高效和有效集成,超越标准图形用户界面、计算机键盘和鼠标的使用,并专注于多模式交互功能,例如眼镜显示、语音、手势识别和其他创新界面。人工智能还适用于完成枯燥、危险或肮脏的军事工作,从而增强兵力,减少伤亡。人工智能也是人机协作工作不可或缺的一部分,旨在促进人类与复杂机器的高效和有效集成,超越标准图形用户界面、计算机键盘和鼠标的使用,并专注于多模式交互功能,例如眼镜显示、语音、手势识别和其他创新界面。人工智能还适用于完成枯燥、危险或肮脏的军事工作,从而增强兵力,减少伤亡。人工智能也是人机协作工作不可或缺的一部分,旨在促进人类与复杂机器的高效和有效集成,超越标准图形用户界面、计算机键盘和鼠标的使用,并专注于多模式交互功能,例如眼镜显示、语音、手势识别和其他创新界面。人工智能还适用于完成枯燥、危险或肮脏的军事工作,从而增强兵力,减少伤亡。

4.5 无人机

无人机 (UAV) 可以极大地帮助改进 SA,因为无人机适用于从被认为沉闷、肮脏或危险的环境中收集情报。随着技术的进步,下一代无人机不仅将收集数据,还将能够执行机载数据处理、融合和分析。配备摄像头的情境感知无人机可以生成对视频中观察到的场景的高级描述,并识别潜在的危急情况。可以利用语义技术来识别场景中的对象及其交互 [ 28]。通过使用模糊认知地图推理模型、深度神经网络或其他机器学习模型,可以为无人机添加认知能力,使无人机了解场景中不断变化的情况并识别不稳定的情况。此外,无人机可以通过充当飞雾在边缘 SA中发挥关键作用因此,当无人机在传感器上方导航时,作为地面传感器数据的接收器。无人机飞雾的一个理想特性是能够处理、融合和分析机上数据以及将数据(无论是原始形式还是经过处理的形式,取决于性质、复杂性和环境)传输到地面用于存档和详细分析的工作站和/或云。无人机还可以采用 DDDAS 方法,使无人机能够根据实时传感器数据动态调整其传感、处理和导航(路由),以更好地监控和跟踪目标。

4.6 自动驾驶汽车

尽管自动驾驶汽车 (AV) 主要针对消费市场,但 AV 也可以使 SA 受益,如下所述。由于 AV 嵌入了大量传感器,因此 AV 能够在运行期间始终进行监控。例如,一个 AV 网络可以在任何时间和地点以全面、详细的跟踪所有 AV 及其用户的形式实现大规模监控 [29]。可以收集和集中存储从车载 AV 的不同传感器检索到的信息。该存储信息的详细分析可用于提供 SA 见解。

4.7 枪击定位系统

枪击定位系统是一种重要的声学监测工具,可用于打击城市地区非法使用枪支的行为,以及在城市战争和战场上定位炮火、子弹和狙击手的来源。声学 SA 可以解释为用于在所有时间和所有天气条件下观察环境声学成分的活动和手段。声学 SA 中的目标采集是指通过对一个或多个先前识别的目标的检测、空间定位、侦察和识别来表征构成环境噪声的声源。现代枪击定位系统归功于军事狙击手检测技术的技术转移,该技术是为对抗战场上的狙击手行动而开发的。枪击定位系统的操作可以通过流体动力学建模、声学传感技术和地震技术来解释。从物理上讲,火灾由两个主要现象构成:枪管内弹药推进剂的冲击引起的化学反应,以及从枪管开口端排放到空气中的弹丸的动力学[30]。弹药发射药的冲击引起的化学反应有两个阶段:第一阶段,子弹发射药被点燃,热量通过枪管呼啸而出,第二阶段,未燃烧的发射药被重新点燃并燃烧产品在枪口外的空气中释放。

与冲击引起的化学反应相关的最关键的流体动力学过程是枪管开口端的放电等离子体的枪口爆炸流。高温高压等离子体的这种快速退出产生了从枪口呈球形辐射的枪口冲击波。弹丸动力学具有三个相关的流体动力学现象[ 30]。首先,释放枪管的弹头的活塞式运动会引起冲击波。其次,抛射体在运动中脱落的涡流会沿着轨迹产生骚动,这会产生风神音。第三,如果弹丸速度为跨音速或更高,它将在飞行中的子弹之后产生弹道冲击波或马赫锥,其压力幅度具有 N 波轮廓。此外,可以根据声学特征区分不同类型的武器。阴影成像已被用于区分不同武器的火力。

电声传感器通常用于检测、定位和识别枪声或射击噪音。电声传感器由压电基板和对声压敏感并具有全向拾音模式的低成本电容式声换能器组成。这些电声传感器处理嵌入在枪击事件声发射中的信息,以猜测枪击源的空间坐标(即方位角、仰角、射程)以及其他相关的弹道特征。电声传感器可以使用无线通信或有线通信(例如,专用电话线)来传输数据。为了进行声学监视,声学传感器分布在感兴趣的区域以形成声学传感器网络。声学传感器通常安装在较高的位置,例如灯杆、高层建筑、蜂窝基站等。声学传感器网络的覆盖范围取决于声学传感器对枪口爆炸波形和环境的敏感度。在露天条件和没有背景噪音的情况下,可以在距离枪支 600 米(0.373 英里)或更远的地方感知到枪口冲击波。在城市环境中,建筑物引入的声学多径和高背景噪声显着降低了传播声学信号的质量。373 英里)或更多距离枪支。在城市环境中,建筑物引入的声学多径和高背景噪声显着降低了传播声学信号的质量。373 英里)或更多距离枪支。在城市环境中,建筑物引入的声学多径和高背景噪声显着降低了传播声学信号的质量。

现代枪击定位系统能够评估射手的方位角和仰角、射手的射程、弹丸的弹道和口径以及初速。弹丸的到达方向是根据弹道冲击波的每次扰动到达声传感器对的时间延迟来估计的。使用一对换能器之间冲击波的到达时间延迟来估计弹丸的速度。弹丸口径可以从 N 波分析中推断出来。射手的射程是通过使用麦克风阵列和三角测量算法分析枪口冲击波前的曲率来确定的[30]。该地理信息系统作为声学 SA 向指挥官或执法官员的一个输入。

4.8 物联网

物联网 (IoT) 可以通过与军事和空军人员的整合极大地增强 SA。操作员/地面士兵是战场上的资产,对于实施战术决策至关重要。越来越多的无处不在的传感和计算设备被军事人员佩戴并嵌入军事装备(例如作战服、仪表化头盔、武器系统等)中。这些传感和计算设备联网在一起形成军事物联网 (IoMT) 或战场物联网 (IoBT) [31]。IoMT/IoBT能够获取多种静态和动态生物特征(如人脸、虹膜、眼周、指纹、步态、手势和面部表情),可用于对士兵的心理物理进行上下文自适应的连续监测和场上的情绪状况。除了监测士兵的武器、弹药和位置外,IoMT/IoBT 还可以帮助捕获士兵的重要健康参数(例如,心率、心电图 (ECG)、血糖水平、体温、血压)。借助 IoMT/IoBT,军队和空军人员能够获得战术态势感知,从而获得对敌人的感知以及友军的进展。IoMT/IoBT 收集的各种统计数据和参数对于坐在指挥和控制中心的指挥官具有重要价值。然后将这些获取的数据发送到边缘服务器或云,然后可以将信息融合和大数据分析应用于 SA、态势评估、决策活动,并为战场上的士兵提供实时支持。指挥官可以了解蓝军的健康参数、武器参数、装备参数和弹药参数,从而可以下达提供适当援助的命令。

4.9 图数据库

最近,在[32]中提出了将物联网(IoMT/IoBT)与图数据库相结合为战场上士兵的每个参数提供 SA,从而实现更好的决策支持系统。图数据库是一种新的范式,其中数据可以以图形形式体现,比传统数据库更容易搜索和遍历。在图形数据库中,数据以节点的形式存储,这些节点通过边以图形方式相互连接,边表示连接节点之间的关系。当数据/节点的属性很重要时,图形数据库很有用。例如,士兵可以是具有不同属性的主节点,例如装备、弹药、武器和身体传感器参数。由于物联网与其他节点和数据有很多互连,因此可以使用图形数据库来存储和检索这些信息。图形表示和存储有助于查询此类复杂数据。图论的标准算法(例如,最短路径、聚类、社区检测等)以及机器学习方法可用于图数据库,以方便检索所需信息[32]。图数据库的使用可以提高指挥官的可视化和SA。通常,平面方式的信息不足以以清晰的方式开发 SA。存储在图形数据库中的各种来源的信息允许以图形方式检索存储的信息,这有助于更好地理解图形中不同节点的属性之间的关系。由于物联网时代从传统的基于地图和基于电话的 SA 过渡,指挥官能够在支持物联网的设备上远程访问所有信息。图形数据库可以在雾/云级别实现,因此查询的可视化结果可以提供有关情况的有趣数据,以协助指挥官做出战术决策。

4.10 雾/边缘计算

雾计算或边缘计算是计算中的一种新趋势,它将应用程序、服务、数据、计算能力、知识生成和决策从集中节点推向网络的逻辑极端。边缘计算和雾计算在本质上是相似的,并且在我们之前的工作中已经概述了一些细微的差异[33]。现有的监视系统难以实时检测、识别和跟踪目标,这主要是由于从传感器传输原始数据、在远程中央平台(例如云)上执行信息融合、计算和分析所涉及的延迟,并将命令发送回执行器以执行控制决策。雾/边缘计算可以在网络边缘附近进行计算,并有助于减轻核心网络的通信负担。雾/边缘计算还支持基于位置的服务、本地分析,并有助于提高 SA 系统的实时响应能力[34、35]。使用生物识别、环境传感器和其他连接的 IoMT/IoBT 设备利用雾/边缘计算快速发送和接收数据不仅有助于改善指挥和控制操作,而且还允许军事人员及时应对战场上的潜在危险情况。

4.11 信息融合

监控应用使用大量传感器,例如运动检测器、接近传感器、生物识别传感器以及各种摄像机,包括彩色摄像机、夜视成像摄像机和热成像摄像机,它们从不同的视点和分辨率观察目标。信息融合通过帮助从感知数据中获得有价值的见解,在 SA 中发挥着重要作用。SA 包含低级信息融合(跟踪和识别)、高级信息融合(基于威胁和场景的评估)和用户细化(物理、认知和信息任务)[ 3]。信息融合最大限度地减少了不同传感器捕获的数据之间的冗余,例如不同相机捕获的相同或相似视图。此外,当系统中的一个相机跟踪的对象移出其视野并进入另一个相机的视野时,信息融合还有助于在相机之间执行切换。在雾/边缘计算范式中,传感器/物联网节点的信息融合减少了需要传输到边缘服务器的数据,从而为物联网设备节省能源,从而有助于延长物联网设备的电池寿命。先进的计算技术,如并行计算和可重构计算,可用于实时信息融合,在物联网和边缘/雾节点提供实时SA。

4.12 视频流中的自动事件识别

来自无人机、物联网设备和闭路电视 (CCTV) 摄像机的视频流是监控和 SA 的重要来源。传统上,需要多个操作员观看这些视频流,然后将有关感兴趣事件的信息传递给指挥官以改进 SA。从大量无人机和物联网设备收集的视频流越来越多,需要越来越多的操作员。此外,在高活动期间,操作员可能会超负荷,因此可能无法跟踪所有感兴趣的事件。自动分析来自各种来源(如无人机和物联网设备)的视频数据,可以通过提供感兴趣的事件或活动的通知来减少所需的操作员数量[36]。事件可以定义为在一段时间内发生的对象之间关系的变化。使用无人机进行自动事件识别的一个有趣例子是车队监视。小型无人机,如“扫描鹰”(ScanEagle),可用于为车队提供监视,在车队上空飞行的无人机不仅会探测和跟踪车队中的实体,而且还会在车队附近发现可能构成威胁的其他车辆和物体。

各种方法已用于事件识别,例如贝叶斯网络、隐马尔可夫模型 (HMM) 和神经网络 [36]。特别是,随着深度学习的最新进展,卷积神经网络 (CNN) 在视频帧中的自动对象检测、分类和识别方面变得非常流行。图 3展示了用于自动对象检测和分类的 CNN 架构。CNN 架构通常由输入层、输出层和多个隐藏层组成。CNN 的隐藏层主要包括多个卷积层、全连接层以及可选的非线性层、池化层和归一化层。在图 3,来自红外摄像机的输入被馈送到 CNN 架构,该架构通过多个卷积、非线性、池化、归一化处理输入(注意,为简单起见,图 3中未显示非线性、池化和归一化层)和全连接层,并在输出/分类层产生目标检测和分类的输出。图 3显示了 CNN 架构从红外视频输入中检测手枪。

图 3. 用于自动对象检测和分类的卷积神经网络 (CNN) 架构


我们注意到 HMM 和神经网络需要大量的训练数据来配置网络以识别事件。由于许多感兴趣的事件是异常事件,缺乏用于训练的视频数据,因此当训练视频数据稀缺时,贝叶斯网络可用于事件识别[36]。贝叶斯网络还在推理中包含不确定性,并提供指示事件为真的可能性的输出,或对于多状态事件,事件处于特定状态的概率。

尽管自动事件识别对 SA 具有巨大的价值,但它是一个具有挑战性的问题,也是近期研究的重点。其他对 SA 至关重要且是近期研究主题的相关研究问题是对象检测和识别、对象之间关系的识别和活动识别。

4.13 增强视觉系统 (EVS)

增强型视觉系统 (EVS) 或增强型飞行视觉系统 (EFVS) 通过主动和被动传感器增强飞行员的能见度和 SA,这些传感器可以穿透风暴、雾、霾、黑暗、雨和雪等天气现象。现代军用飞机配备了增强型视觉系统,但是,由于成本、复杂性和技术性,这些系统在商用飞机上并不常见。增强型视觉传感器的性能取决于传感器特性和外部环境。例如,高频雷达(例如 94 GHz)和红外传感器的范围性能在强降水和某些雾类型中会降低 [ 37]。相反,低频(例如,9.6 GHz)和中频(例如,35 GHz)雷达的范围有所提高,但显示分辨率较差。此外,当多个有源传感器靠近时,有源雷达传感器可能会相互干扰。尽管增强视觉系统已在军事和空军中大量使用以改进 SA,但当代增强视觉系统不提取可能在特定温度或雷达反射条件下产生误导性视觉伪影的颜色特征 [ 37 ]。EVS/EFVS 的示例包括 Collins Aerospace 的 EFVS-4860 [ 38 ] 和 Collins Aerospace 的 EVS-3600 [ 39],它使用短波红外、长波红外和可见光摄像机的组合来提高飞行员的能见度。EVS 的另一个例子是 Elbit System 的 ClearVision [ 40 ],它结合了视觉相机、近红外传感器和长波红外传感器来提供改进的 SA。

4.14 合成视觉系统 (SVS)

合成视觉系统本质上是不受天气影响的显示器,允许操作员和/或飞行员看到世界,因为它始终处于完美的天气条件下。合成视觉系统使用传感器、全球定位系统 (GPS) 卫星信号、惯性参考系统和内部数据库的组合,为飞行员提供他们周围世界的合成视图。合成视觉系统通过在姿态参考系统上叠加真实世界图像的增强现实 (AR) 系统取代了飞机中旧的姿态指示器(即指示地平线位置的蓝棕色姿态指示器)。基于 AR 的 SA 系统,例如 NASA 的合成视觉系统,可以提高航空安全并提高飞机运行效率。

Collins Aerospace 的 SVS 在 HUD 上提供与天气无关的高清图像显示,其中包含三层信息——地形、障碍物、机场和跑道——以呈现环境的完整画面 [ 39 ]。Collins Aerospace 的 SVS 将传感器与提供地形轮廓、英里标记、跑道亮点和机场圆顶的全球数据库集成在一起。SVS 的另一个例子是霍尼韦尔的 SmartView [ 41 ],它将来自各种机载数据库、GPS 和惯性参考系统的飞行信息合成为全面的、易于理解的前方地形 3-D 渲染。

4.15 组合视觉系统 (CVS)

合成视觉系统让飞行员在任何天气条件下都能清楚地看到窗外的世界。这些视觉系统是迈向未来视觉系统的一步,也称为组合视觉系统 (CVS),它将为飞行员提供远远超出眼睛所能看到的视野。CVS 是合成视觉(即基于传感器和存储的数据库信息实时创建渲染环境的系统)和增强型飞行视觉系统(即利用前视红外系统和毫米波雷达提供飞行员可以实时查看飞机周围的世界)[ 42 ]。Collins Aerospace 的 CVS 通过将他们的 EVS 和 SVS 组合成一个动态图像为飞行员提供清晰的视图,如图 4 所示. CVS 算法利用来自 EVS 和 SVS 的重叠视野来检测、提取和显示来自两个来源的内容。例如,CVS 提供夜间地形热成像、不受天气影响的虚拟地形,以及集成在单个系统中的跑道和进近照明的快速检测。

图 4. Collins Aerospace 的组合视觉系统 [43]

4.16 增强现实

随着移动设备的计算能力不断提高,可以由多个部门(例如,军事、民用、执法)的步行操作员携带,AR 为增强 SA 提供了一种有前途的手段。由于下车操作员倾向于处理大量可能相关或不相关的信息,因此 AR 系统可以通过以可识别的方式过滤、组织和显示信息来帮助改进 SA [44]。AR 系统需要识别要在操作员的 HUD 中显示和增强的感兴趣元素。这些元素包括地形图和蓝色和红色力量的指示。可以使用以操作员为中心的径向迷你地图显示地形图,实时显示操作员的位置以及盟友和敌人的位置以及兴趣点。通过使用 AR 技术对路径进行着色,导航数据可以与地形图集成,从而将地图和导航路径叠加在操作员的视野中。AR 还能够在操作员可能难以操纵其设备和/或武器的情况下提供帮助,例如在近距离战斗或巡逻中,武器通常在臀部水平处静止[44]。这种 AR 十字准线的有效性可以通过比较操作员在有或没有十字准线的参与期间的响应时间来凭经验测量。总之,随着 AR 技术的进步,AR 在军事和空军设备中的使用一直在不断增加。


五、态势感知的应用领域


战场、军事和空军基地、航空、空中交通管制、紧急情况和/或灾难响应、工业流程管理、城市地区和关键基础设施等各个领域都需要 SA,如图 5 所示。在本节中,我们将概述其中一些领域。不充分的 SA 通常与导致逆境的人为错误有关,例如战争中的军事损失、紧急情况和灾难响应中平民和急救人员的生命损失以及工业控制中的收入损失。

图 5. 态势感知领域

5.1 战场

SA 对于知情和可靠的战场 C2 系统必不可少。由 IoBT/IoMT 和雾计算等最先进技术增强的 SA 可以帮助军队和空军充分利用部署在(未来)中的大量异构 IoBT/IoMT 设备收集的信息。) 战场,并且可以为军队/空军提供相对于对手的战略优势。战场上的 SA 可以在不同级别提供:(i)监督战场行动的指挥官,(ii)在战术层面执行任务的下马士兵,以及(iii)为士兵提供近距离空中支援的飞行员。SA 技术的最新进展可以帮助士兵在低延迟下识别敌人、访问设备和武器系统,并提高 SA 和士兵的安全性。

5.2 城市战

在城市环境中为军队和空军部队维护 SA 比在农村和开阔地带更具挑战性。城市环境中的战斗空间动态发生了显着变化,从传统的以敌为主的二维空间转变为敌方可以从任意方向、多方向同时发动进攻的三维迷宫[ 26]。越来越多的非战斗人员使城市战场变得更加复杂。GPS 等导航辅助设备在城市环境中的可靠性不如开阔地形,因为很难获得卫星的视线。因此,在城市环境中共享有关战斗空间的信息以获得共同作战图 (COP)(美国国防部军事及相关术语词典将 COP 定义为:“由多个司令部共享的相关信息的单一相同显示,以促进协作规划并协助所有梯队实现态势感知”[ 2 ])需要一个能够在任何环境(即存在多径和无线电干扰的情况下)保持链路的通信系统/网络。

5.3 灰色地带战

在不对称战争或灰色地带战争中特别需要 SA [ 45] 识别敌方战斗人员并不总是那么简单,例如,敌人可能以平民的身份出现或使用被盗徽章进入受限军事基地。为了在灰色区域情况下提供 SA,生物特征传感器可以扫描虹膜、指纹和其他生物特征数据,以识别可能构成危险的个人。在 SA 系统中使用 DDDAS 方法可以帮助有针对性地收集有关已识别个人的数据,还可以动员响应单位(例如狙击手)来分散威胁。SA 系统可以提供对站点和潜在灰色区域参与者的实时监控,以帮助防止或减轻灰色区域战争的负面影响,例如错误信息以及服务和关键基础设施的中断。

5.4 军事和空军基地

SA 是军事和空军基地的安全保障所必需的。由于敌人可能试图用偷来的徽章/身份潜入基地,因此需要对军事/空军基地进行持续监视。SA 系统可以检测基地中的可疑人员和未经授权的人员,当局可以据此采取适当的行动。

5.5 国土安全与国防

SA 系统是增强国土安全和防御所必需的。实时监控有助于及时发现和应对自然灾害(例如飓风、洪水)和人为事件(例如恐怖主义)。此外,SA 系统可以协助执法人员反恐、打击走私和逮捕逃犯。

5.6 灾难响应管理

灾难恢复行动具有挑战性,需要多个机构的支持,包括当地和国际应急响应人员、非政府组织和军方。在灾难发生后,最紧迫的要求是对 SA 的要求,以便可以根据影响和救灾需求对资源(包括人员和物资)进行优先排序和引导。此外,在灾难性情况下,随着恢复工作的继续,SA 需要根据不断变化的条件不断更新。在灾难情况下提供 SA 的传统信息来源包括灾难受害者的报告,但是,受害者报告可能并非在所有情况下都可行,因为通信手段可能会因灾难而中断。因此,灾害监测和报告需要 SA 系统,因此有助于对灾害做出适当的响应。SA 系统也是早期预警系统不可或缺的一部分,通过促进快速检测和响应紧急情况(例如火灾、洪水、桥梁倒塌、供水中断、地震、火山爆发、和龙卷风等。

5.7 关键基础设施

桥梁、发电和配电网络、供水网络、电信网络、交通网络等关键基础设施的安全需要 SA。我们通过几个来自道路网络的例子来说明关键基础设施的 SA交通网络的重要组成部分。道路 SA 需要感知不利的道路状况(例如坑洼)、驾车者、行人和交通状况 [ 10]。道路 SA 提供的交通监控和可疑车辆检测将减少犯罪、事故和死亡人数。深度学习的进步极大地促进了 Road SA 的发展。CNN 可用于感知道路图像数据中的车辆类别和位置,从而有助于解决道路交通 SA 系统中的情境元素识别问题 [ 11 ]。在灰色地带战争时代,监控关键基础设施变得更加重要,因为敌人通常旨在破坏关键基础设施,从而为军事交战创造有利局面。

6. 结论

在本文中,我们从军事和空军的角度定义并解释了态势感知 (SA)。我们已经提出了 SA 和动态决策的模型。所提出的模型结合了人工智能和动态数据驱动的应用系统,以帮助根据 SA 核心感知和预测的不断变化的情况来引导测量和资源。我们讨论了 SA 的测量并确定了 SA 评估的指标。我们还概述了与测量 SA 相关的挑战。我们讨论了可以增强 SA 的不同技术和技术,例如不同模式的情报收集、传感器和传感器网络、软件无线电、人工智能、无人驾驶飞行器、自动驾驶汽车、枪击定位系统、物联网、雾/边缘计算、信息融合、视频流中的自动事件识别、增强视觉系统、合成视觉系统、组合视觉系统和增强现实。最后,我们介绍了需要具备 SA 的不同领域或应用领域,例如战场、城市战、灰色地带战、军事和空军基地、国土安全和国防以及关键基础设施。

展望未来,SA 技术和方法将随着技术的进步而不断改进。有许多领域需要积极研究以增强 SA。例如,军方仍在寻求基于软件定义无线电 (SDR) 的完美无线电,该无线电可以实现安全、可互操作和有弹性的多通道通信,能够处理不同的模式/波形。自动事件检测和识别是与 SA 相关的另一个需要积极研究的领域。特别是实时自动事件检测和识别是一个具有挑战性的问题,不仅需要人工智能的进步,还需要先进的计算技术,例如并行计算和可重构计算。此外,硬件加速器可以方便地实现实时自动事件检测和识别。另一个需要积极研究的领域是无人驾驶飞行器 (UAV) 的安全自主导航,以便无人机或无人机群能够自主完成任务,而无需主动远程驾驶。需要进一步研究战场/军事物联网 (IoBT/IoMT),以感知、整合和处理与士兵的健康和心理生理状况、士兵的武器、弹药和战场位置相关的大量参数,以及有关感兴趣地区的红军信息。雾/边缘计算的进一步研究可以确保对这些感测参数进行实时处理和分析,以帮助实现实时评估和指挥和控制决策,以应对不断变化的情况。士兵和飞行员的增强视觉系统需要随着传感和增强现实 (AR) 技术的创新而不断改进。需要基于多智能融合结果开发新的可视化技术,以允许用户查看可重新配置的用户自定义操作画面。关于 SA 量化,需要开发新的 SA 测量技术,以涵盖更多的评估指标。最后,迫切需要开发新的 SA 评估工具,以便根据给定应用程序领域的 SA 要求,可以根据这些工具对 SA 进行量化。


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“SA23” 就可以获取AI如何促进态势感知?2022美国空军AFRL等「态势感知」万字综述论文,24也pdf阐述智能战场态势感知技术、挑战和前景》专知下载链接


资金

这项研究得到了空军研究实验室 (AFRL) 信息局 (RI) 的部分支持,通过空军科学研究办公室 (AFOSR) 夏季教师奖学金计划®,合同编号 FA8750-15-3-6003、FA9550- 15-0001 和 FA9550-20-F-0005。本材料中表达的任何意见、发现和结论或建议均为作者的观点,不一定反映 AFRL 和 AFOSR 的观点。APC 由堪萨斯州立大学资助。

参考文献

  1.   Endsley, M.R. Designing for Situation Awareness in Complex System. In Proceedings of the Second Intenational Workshop on Symbiosis of Humans, Artifacts and Environment; 2001. Available online:https://www.researchgate.net/profile/Mica-Endsley/publication/238653506_Designing_for_situation_awareness_in_complex_system/links/542b1ada0cf29bbc126a7f35/Designing-for-situation-awareness-in-complex-system.pdf (accessed on 13 December 2021).
  2.  DOD. DOD Dictionary of Military and Associated Terms. 2019. Available online: https://www.jcs.mil/Portals/36/Documents/Doctrine/pubs/dictionary.pdf (accessed on 16 August 2019).
  3.   Blasch, E. Multi-Intelligence Critical Rating Assessment of Fusion Techniques (MiCRAFT). In Proceedings of the SPIE, Signal Processing, Sensor/Information Fusion, and Target Recognition XXIV; 2015; Volume 9474. Available online: https://www.spiedigitallibrary.org/conference-proceedings-of-spie/9474/94740R/Multi-intelligence-critical-rating-assessment-of-fusion-techniques-MiCRAFT/10.1117/12.2177539.short?SSO=1 (accessed on 13 December 2021).
  4.   Spick, M. The Ace Factor: Air Combat and the Role of Situational Awareness; Naval Institute Press: Annapolis, MD, USA, 1988. [Google Scholar]
  5.   McKay, B.; McKay, K. The Tao of Boyd: How to Master the OODA Loop. 2019. Available online: https://www.artofmanliness.com/articles/ooda-loop/ (accessed on 14 August 2019).
  6.    Endsley, M.R. Toward a Theory of Situation Awareness in Dynamic Systems. Hum. Factors J. Hum. Factors Ergon. Soc. 199537, 32–64. [Google Scholar] [CrossRef]
  7.   Endsley, M.R. Situation Awareness in Aviation Systems. In Handbook of Aviation Human Factors; Garland, D.J., Wise, J.A., Hopkin, V.D., Eds.; Lawrence Erlbaum Associates Publishers: Mahwah, NJ, USA, 1999; pp. 257–276. [Google Scholar]
  8.    Blasch, E.; Ravela, S.; Aved, A. (Eds.) Handbook of Dynamic Data Driven Applications Systems; Springer: Berlin/Heidelberg, Germany, 2018. [Google Scholar]
  9.    Snidaro, L.; García, J.; Llinas, J.; Blasch, E. (Eds.) Context-Enhanced Information Fusion: Boosting Real-World Performance with Domain Knowledge; Springer: Berlin/Heidelberg, Germany, 2016. [Google Scholar]
  10.    Garg, V.; Wickramarathne, T. Ubiquitous Sensing for Enhanced Road Situational Awareness: A Target-Tracking Approach. In Proceedings of the 21st International Conference on Intelligent Transportation Systems (ITSC), Maui, HI, USA, 4–7 November 2018; pp. 831–836. [Google Scholar]
  11.    Zhu, Q. Research on Road Traffic Situation Awareness System Based on Image Big Data. IEEE Intell. Syst. 202035, 18–26. [Google Scholar] [CrossRef]
  12.    Zhang, D.; Peng, Y.; Zhang, Y.; Wu, D.; Wang, H.; Zhang, H. Train Time Delay Prediction for High-Speed Train Dispatching Based on Spatio-Temporal Graph Convolutional Network. IEEE Trans. Intell. Transp. Syst. 2021, 1–11. Available online: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=9511425 (accessed on 13 December 2021). [CrossRef]
  13.   Endsley, M.R. Situation Awareness Global Assessment Technique (SAGAT). In Proceedings of the IEEE National Aerospace and Electronics Conference, Dayton, OH, USA, 23–27 May 1988. [Google Scholar]
  14.   Uhlarik, J.; Comerford, D.A. A Review of Situation Awareness Literature Relevant to Pilot Surveillance Functions; Office of Aerospace Medicine, Federal Aviation Administration, DOT/FAA/AM-02/3; 2002. Available online: https://www.faa.gov/data_research/research/med_humanfacs/oamtechreports/2000s/media/0203.pdf (accessed on 13 December 2021).
  15.   Nguyen, T.; Lim, C.P.; Nguyen, N.D.; Gordon-Brown, L.; Nahavandi, S. A Review of Situation Awareness Assessment Approaches in Aviation Environments. IEEE Syst. J. 201913, 3590–3603. [Google Scholar] [CrossRef]
  16.   Hart, S.G.; Staveland, L.E. Development of NASA-TLX (Task Load Index): Results of Empirical and Theoretical Research. Adv. Psychol. 198852, 139–183. [Google Scholar]
  17.   Taylor, R. Situational Awareness Rating Technique (SART): The Development of a Tool for Aircrew Systems Design. In Proceedings of the AGARD AMP Symposium on Situational Awareness in Aerospace Operations (AGARD-CP-478), Copenhagen, Denmark, 2–6 October 1989. [Google Scholar]
  18.    O’Hare, D.; Wiggins, M.; Williams, A.; Wong, W. Cognitive Task Analyses for Decision Centred Design and Training. Ergonomics 199841, 1698–1718. [Google Scholar] [CrossRef] [PubMed]
  19.    Blasch, E.P.; Salerno, J.J.; Tadda, G.P. Measuring the Worthiness of Situation Assessment. In High-Level Information Fusion Management and Systems Design; Blasch, E., Bossé, E., Lambert, D.A., Eds.; Artech House: Norwood, MA, USA, 2012; pp. 315–329. [Google Scholar]
  20.    Endsley, M.R. The Divergence of Objective and Subjective Situation Awareness: A Meta-Analysis. J. Cogn. Eng. Decis. Mak. 202014, 34–53. [Google Scholar] [CrossRef]
  21.    Zhang, T.; Yang, J.; Liang, N.; Pitts, B.J.; Prakah-Asante, K.O.; Curry, R.; Duerstock, B.S.; Wachs, J.P.; Yu, D. Physiological Measurements of Situation Awareness: A Systematic Review. Hum. Factors 2020, 1–22. Available online: https://pubmed.ncbi.nlm.nih.gov/33241945/ (accessed on 13 December 2021). [CrossRef] [PubMed]
  22.    Tadda, G. Measuring Performance of Cyber Situation Awareness Systems. In Proceedings of the 2008 11th International Conference on Information Fusion, Cologne, Germany, 30 June–3 July 2008; pp. 1–8. [Google Scholar] [CrossRef]
  23.   Nowak, M. Layered Sensing to Enhance Situational Awareness. In Proceedings of the International Symposium on Collaborative Technologies and Systems, Irvine, CA, USA, 19–23 May 2008. [Google Scholar]
  24.   Kamal, S.; Armantrout, J.T. The U.S. Military’s Joint Tactical Radio System. 2020. Available online: https://www.doncio.navy.mil/CHIPS/ArticleDetails.aspx?id=4344 (accessed on 29 May 2020).
  25.    U.S. Military. Joint Tactical Networking Center. 2020. Available online: https://www.jtnc.mil/ (accessed on 29 May 2020).
  26.   Randall, A.L.; Walter, R.C. Overview of the Small Unit Operations Situational Awareness System. In Proceedings of the IEEE Military Communications Conference (MILCOM), Boston, MA, USA, 13–16 October 2003. [Google Scholar] [CrossRef]
  27.   Kansakar, P.; Munir, A. A Two-Tiered Heterogeneous and Reconfigurable Application Processor for Future Internet of Things. In Proceedings of the IEEE Computer Society Annual Symposium on VLSI (ISVLSI), Hong Kong, China, 9–11 July 2018. [Google Scholar]
  28.   Cavaliere, D.; Senatore, S.; Loia, V. Proactive UAVs for Cognitive Contextual Awareness. IEEE Syst. J. 201913, 3568–3579. [Google Scholar] [CrossRef]
  29.    Bloom, C.; Tan, J.; Ramjohn, J.; Bauer, L. Self-Driving Cars and Data Collection: Privacy Perceptions of Networked Autonomous Vehicles. In Proceedings of the Thirteenth Symposium on Usable Privacy and Security (SOUPS 2017), Santa Clara, CA, USA, 12–14 July 2017. [Google Scholar]
  30.    Aguilar, J.R. Gunshot Location Systems: The transfer of the sniper detection technology from military to civilian applications. In Proceedings of the International Carnahan Conference on Security Technology (ICCST), Medellin, Colombia, 8–10 October 2013. [Google Scholar]
  31.    Castiglione, A.; Choo, K.K.R.; Nappi, M.; Ricciardi, S. Context Aware Ubiquitous Biometrics in Edge of Military Things. IEEE Cloud Comput. 20174, 16–20. [Google Scholar] [CrossRef]
  32.    Tripathi, G.; Sharma, B.; Rajvanshi, S. A Combination of Internet of Things (IoT) and Graph Database for Future Battlefield Systems. In Proceedings of the International Conference on Computing, Communication and Automation (ICCCA), Greater Noida, India, 5–6 May 2017. [Google Scholar]
  33.    Munir, A.; Kansakar, P.; Khan, S.U. IFCIoT: Integrated Fog Cloud IoT: A novel architectural paradigm for the future Internet of Things. IEEE Consum. Electron. Mag. 20176, 74–82. [Google Scholar] [CrossRef]
  34.    Munir, A.; Blasch, E.; Kwon, J.; Kong, J.; Aved, A. Artificial Intelligence and Data Fusion at the Edge. IEEE Aerosp. Electron. Syst. Mag. 202136, 62–78. [Google Scholar] [CrossRef]
  35.    Munir, A.; Kwon, J.; Lee, J.H.; Kong, J.; Blasch, E.; Aved, A.; Muhammad, K. FogSurv: A Fog-Assisted Architecture for Urban Surveillance Using Artificial Intelligence and Data Fusion. IEEE Access 20219, 111938–111959. [Google Scholar] [CrossRef]
  36.   Higgins, R.P. Automatic Event Recognition for Enhanced Situational Awareness in UAV Video. In Proceedings of the IEEE Military Communications Conference (MILCOM), Atlantic City, NJ, USA, 17–20 October 2005. [Google Scholar] [CrossRef]
  37.  Prinzel, L.; Kramer, L. Sythetic Vision Systems. 2009. Available online: https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/20090007635.pdf (accessed on 11 August 2019).
  38.   Rockwell Collins. Rockwell Collins EFVS-4860 Enhanced Flight Vision System. 2006. Available online: www.rockwellcollins.com (accessed on 12 August 2019).
  39.  Rockwell Collins. Rockwell Collins Enhanced Vision Systems. 2019. Available online: https://www.rockwellcollins.com/Products-and-Services/Commercial-Aviation/Flight-Deck/Vision-Systems.aspx (accessed on 12 August 2019).
  40.  Elbit Systems. ClearVision EVS. 2016. Available online: https://elbitsystems.com/media/Cearvision_EVSAward_2016.pdf (accessed on 12 August 2019).
  41.  Honeywell. Honeywell SmartView Synthetic Vision System. 2019. Available online: https://aerospace.honeywell.com/en/products/safety-and-connectivity/smartview-synthetic-vision-system (accessed on 12 August 2019).
  42.  NASA. NASA, Boeing Testing Synthetic Vision Technologies. 2017. Available online: https://www.nasa.gov/feature/langley/nasa-boeing-testing-synthetic-vision-technologies (accessed on 11 August 2019).
  43.    Collins Aerospace. New Bombardier Global 5500 and Global 6500 Aircraft to Feature Rockwell Collins’ Transformational Flight Deck and Cabin Systems. 2020. Available online: https://www.rockwellcollins.com/Data/News/2018-Cal-Yr/CS/20180718-Global-5500-6500-feature-transformational-flight-deck-cabin-systems.aspx (accessed on 20 June 2020).
  44.   Brandão, W.L.; Pinho, M.S. Using Augmented Reality to Improve Dismounted Operators’ Situation Awareness. In Proceedings of the IEEE Annual International Symposium on Virtual Reality (VR), Los Angeles, CA, USA, 18–22 March 2017. [Google Scholar]
  45.    Votel, J.L.; Cleveland, C.T.; Connett, C.T.; Irwin, W. Unconventional Warfare in the Gray Zone. Jt. Force Q. 2016, 101–109. Available online: https://ndupress.ndu.edu/Portals/68/Documents/jfq/jfq-80/jfq-80_101-109_Votel-et-al.pdf (accessed on 13 December 2021).


专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“SA23” 就可以获取AI如何促进态势感知?2022美国空军AFRL等「态势感知」万字综述论文,24也pdf阐述智能战场态势感知技术、挑战和前景》专知下载链接

请扫码加入专知人工智能群(长按二维码),或者加专知小助手微信(zhuanzhi02),加入专知主题群(请备注主题类型:AI、NLP、CV、 KG、论文等)交流~

专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资源
登录查看更多
122

相关内容

美国陆军情报分析手册,新版174页pdf
专知会员服务
171+阅读 · 2022年3月25日
网络安全态势感知
计算机与网络安全
26+阅读 · 2018年10月14日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
42+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
49+阅读 · 2021年9月11日
A Survey on Data Augmentation for Text Classification
Arxiv
19+阅读 · 2020年12月23日
Arxiv
18+阅读 · 2020年10月9日
VIP会员
相关VIP内容
美国陆军情报分析手册,新版174页pdf
专知会员服务
171+阅读 · 2022年3月25日
相关基金
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
42+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2010年12月31日
国家自然科学基金
4+阅读 · 2009年12月31日
国家自然科学基金
5+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员