1 引言

未来的战场将是动态的、混乱的、不可预测的和不确定的。在这种多战区、多领域、相互关联的战场上,指挥官和参谋人员将从大量数据中筛选信息、做出决策和反馈。在克劳塞维茨战争迷雾笼罩下的时间有限的作战环境中,领导者有效而公正的决策,以及由人类和机器/系统组成的团队协调一致的行动,将是取得简洁胜利的助推器。决策的速度和复杂程度预计将超越人类的认知水平。最新技术和新兴技术提供的能力将为各个领域的决策者和部队提供帮助,同时国家和非国家行为者也将在这些领域同时展开争夺战。著名的 OODA 循环在 "观察"、"定位"、"决策 "和 "行动 "的每个阶段都将有技术辅助投入。大数据和推理分析的更快处理能力以及算法驱动的机器对输入的无缝整合将简化与大数据的五个Vs(即数量、速度、真实性、价值和多样性)相关的复杂性。

人工智能(Artificial Intelligence 或 AI)是计算机科学的一个分支,它汇集了多个学科,旨在创造智能机器--能够执行复杂任务的设备和系统,如人类智能所执行的任务,但其方式等同于或超越人类的能力。从根本上说,其目的是制造能够在各种意义上复制人类行为和智能的智能机器。正如我们所知,在人工智能的三种类型(人工狭义智能、人工通用智能和人工超级智能)中,目前的能力是 "人工狭义智能 "或 "弱人工智能",即机器或系统(如 Alexa 或 Siri)可以重复执行一系列预先确定和定义的活动。在日常生活中,我们与大数据、机器学习等与人工智能相关的集合或子集合中的一个进行交互,尽管所有集合或子集合都被松散地称为人工智能。即使关于人工智能获得过多自由的伦理争论仍在继续,人工智能的奇点预计将在二十年后出现,但诸如 ChatGPT、蜂群无人机、钢铁侠、无人驾驶自动汽车等话题仍在人工智能文盲的阅读清单上。

美国、中国和俄罗斯等国已经在人工智能的各个领域,包括军事能力领域取得了飞速发展。与 1997 年 "深蓝 "击败卡斯帕罗夫或 2016 年 Deepmind 的 AlphaGo 击败李世石相比,2020 年 8 月王牌 F16 飞行员与人工智能系统 "猎鹰"(美国国防部高级研究计划局(DARPA)的空战进化(ACE)计划)的模拟空战等试验或事件受到了更多关注。印度已经采取了一系列措施来开发和利用人工智能的能力,其中包括建立一个国家级的机构,并在各研究所建立卓越中心。2018 年,NITI Aayog 发布了《国家人工智能战略 #AIForAll》,随后在 2020 年建立了国家人工智能门户网站,此外还有其他各种举措。国防人工智能委员会和国防人工智能项目机构已经成立,目前正在努力确定和开发各个领域的项目。印度国防与发展研究组织(DRDO)的十个卓越中心和两个专门实验室致力于确定和开发关键技术与应用,而印度陆军则在莫霍(Mhow)的MCTE建立了人工智能卓越中心,并在各培训机构增设了以人工智能为导向的课程。除了各种研讨会,印度陆军最近还宣布了采购喷气背包、机器人骡子、无人机系统和干扰器等武器的计划,以期提高其在战斗中的优势。

在武装部队中,人工智能和相关能力可用于成倍提高训练、监视、情报整理、后勤(包括供应链管理)、网络安全、武器弹药等领域的性能。Manekshaw 关于 "将人工智能用于军事 "的论文提到了人工智能可以重点关注的态势感知、杀伤力、人力资源(HR)、培训、生存能力、网络、信息和电子战(EW)以及机动性等领域。可以推测,纳入人工智能系统和子系统(包括无人驾驶系统、远程系统和机器人)的目的是:

  • 加强信息优势(例如:提供对手位置的航拍照片;整合来自结构化和非结构化数据的输入)。

  • 减少认知负荷(例如:在交火中识别新目标并提出目标选择建议)。

  • 承担物理负荷(例如:携带沉重的作战装备或以外骨骼的形式协助人类)。

  • 处理危险任务(例如:在危险区域运送物资或进行医疗后送)。

随着武装部队融入和利用人工智能的方方面面,一个明显的表现将是在战斗或作战效能领域。战斗力被定义为一支军事部队基于行为、行动和领导力等方面的考虑参与战斗的准备状态,是部队(人数)、装备可用性、士气、领导力、训练标准等有形和无形因素的综合。换言之,它是一支军队成功完成其使命或任务的能力。

然而,目前的想法对两个重要且相互关联的方面却只字未提,而这两个方面可能会影响战斗力,同时还包含人工智能的各个方面,即 "信任 "和 "偏见"。即使技术不断进步,智能水平从 "辅助 "到 "增强 "再到 "自主",不变的是 "人的因素 "或 "回路中的人"。组织文化、年龄、性别等因素将影响新技术进步在不同组织中被人类接受的方式。人、流程和技术这三大支柱必须与积极的反馈机制无缝结合,以确保任何形式的偏见,无论是被动的还是主动的,都不会表现出来,从而影响信任度和效率。

2 信任

人机协作是一种关系,至少由三个同等重要的要素组成:人、机器以及它们之间的互动和相互依存关系。建立透明、可解释、可靠并具有其他特征和能力的可信人工智能,是创建高效人机团队的重要组成部分。人机交互的复杂动态是未来的趋势,这将要求增强对机器的信任,就像同一团队中两名士兵之间的信任一样。在任何战斗单位或分队或可称为团队的单位中,每个队员在一起接受过训练,都知道对方的长处和短处。团队成员之间的友情和团队精神,最终使团队成为一个具有战斗力的凝聚单位。团队成员之间的 "信任 "远比其他任何因素都重要,这是在敌方火力下行动时必须具备的条件,因为在这种情况下,一个人的生命取决于另一个人的火力掩护或支援。

随着复杂程度和互动的增加,对人际(人-机和人-系统)信任的需求也会增加,而在人与人的关系中,这种信任取决于相关各方的品格和能力,以及他们对这一点的相互认识。尽管在开发系统时,"信任 "是一个难以考虑的因素,但我们可以做的是提高系统的透明度、可靠性和可解释性,从而在人机协作中建立信任。在这样一个有凝聚力的团队中引入一台机器,一个不露面、没有感情的成员,会影响信任因素。人类的传统习惯是拟人化,即把人类的情感赋予其他生物,这在饲养宠物的家庭中很常见。如果一台机器能表现出类似人类的特征、习惯和情感,那么它就更有可能赢得团队的信任。

一项关于人机协作的研究指出,协调、沟通和适应是成功团队成员的三大关键能力。双向沟通是一个重要方面,因此,可解释的人工智能或 xAI 正在解决使用深度神经网络的复杂系统透明度降低的问题。有效的沟通还能建立信任。协调则更多地涉及对团队成员知识、技能和行为的认可,以实现共同目标。目前,这一能力的一个主要弱点是隐式协调,即团队成员可以根据他人的行为模式预测他人可能会做什么,这超出了具有明确框架和规则的机器的范围。也许 "心智理论人工智能 "也能满足这一要求。在适应方面,人机团队的每个成员都必须根据已知的知识、队友的行为以及预期的模式进行适应。这是另一个方面,它将要求目前的第一代(基于知识)和第二代(统计)人工智能系统向第三代(因果和上下文)模型转变。大规模数据集的可用性以及具有共享态势感知和经验的关联系统将帮助系统更快地适应环境。

另一项关于人机交互中影响信任的因素的研究在人类、机器人和环境三个方面确定了 33 个因素(见表 1)。研究显示,在所有因素中,机器人的表现对建立信任的贡献最大,而环境也发挥了相当大的作用。正如信任是如何在纯人类团队中形成的一样,相信人工智能辅助机器人或系统将提供无偏见的高质量产出或性能,也将在人机团队中建立信任。

表 1 影响人机交互信任的因素

3 偏差

人类决策和判断中的认知偏差是有据可查的。丹尼尔-卡尼曼(Daniel Kahneman)在《思考的快与慢》(Thinking Fast and Slow)一书中提到了大脑的第一和第二系统类型,其中快速直观的第一系统试图劫持缓慢分析的第二系统大脑,从而导致更多的思维捷径或启发式方法,进而产生偏差。虽然有消除和减轻偏差(去偏差)的方法和手段,但意识到偏差并不总能导致从决策循环中消除偏差。更具破坏性的是,在不确定和有风险的条件下,大脑在有限的时间窗口内采用其中一种捷径(启发式方法)时,通常会出现对隐含偏见缺乏了解的情况。

除了在组织的各个层面制定政策和程序以系统地消除偏见并建立反馈机制外,还需要采用 "循证决策"。这就需要数据云等通用数据共享平台,以及能够解读输入信息并分析结构化和非结构化数据的标准算法,以便在决策过程的各个阶段为领导者或决策者提供真知灼见。在 OODA 循环的 "观察 "阶段,可以通过让机器综合大量和各种输入来提供经过整理的情报画面,从而减少人为偏见。在 "定向 "阶段,当决策者正在经历决策循环中的 "感知 "范式时,一套经过整理和综合的分析输入将有助于在更短的时间内确定框架和方向。在 "决策 "阶段,基于机器学习的决策支持系统可以对领导者的经验和直觉进行适当的补充,从而以更快的速度做出更好的决策,这对于即使在认知和物理领域也没有明确界限的未来多领域战场来说至关重要。

另一方面,增加对人工智能系统的依赖可能会进一步扩大算法中的内在偏差或训练数据集中的存在偏差。尽管有制衡措施来系统地审查算法是否存在偏差,并防止由于在不完整的数据集上进行训练而产生隐性偏差,但仍不能排除在设计阶段纳入人类认知偏差的可能性和可能性。表 2 列出了德勤公司关于偏见和信任的研究中发现的数据模型偏见,尽管并不全面。

表2 数据模型偏差

虽然有些人认为,与有偏差的人类决策者相比,在更大的历史数据集上训练出来的有偏差的算法仍会提出更平衡的 "行动方案",但 "去偏差(消除/减轻偏差)"方面值得比现在更多的关注。可以说,人类和机器都需要采取 "互利的去偏差策略 "来提高决策质量,以探索和了解那些不道德、不健全和不合法的偏差。

4 建议

人工智能及其相关工具和能力可在不同层次和阶段引入,以提高和衡量技能和标准,同时可根据不断变化的战场和作战范围的需求进行进一步修改。虚拟现实和增强现实技术与触觉技术相结合,可使身心沉浸其中,为训练增添真实感和活力,而模拟和战争游戏模型则可降低成本、提高适应性和改进相互操作性。虚拟现实(VR)可用于教育、医疗和作战训练领域。在 COVID-19 大流行期间,在线教学平台大规模增加,许多教育机构利用现有技术使学习更加身临其境。复杂的概念可以用三维在线模型来解释,而士兵必须接受的多层次教育和技能发展可以通过 VR 系统逐步实现。所有士兵都能更好地学习和实践医疗保健方面的知识,包括作战医疗护理。利用自然语言处理能力,可以建立人工智能对话系统,让士兵参与各种问题的讨论,包括基本文件、野战工艺和战术、基本医疗说明、专业军事教育(PME)原则等。无人传感器、载荷搬运、重复性任务机器人、多模态情报分析、使用云架构的边缘计算以加快决策速度和缩短 OODA 循环,这些都是人工智能辅助系统在营/团一级的一些应用领域。

问题的关键在于营级或团级会发生什么变化?它会改变我们目前的工作和运作方式吗?在效率和透明度方面,我们的工作和运作方式确实会发生范式性变化。随之而来的还有对变革管理和技术技能提高的需求。从公务员遴选委员会(针对军官)和招聘中心(针对初级军官和其他职级)开始,人工智能辅助软件可以帮助识别具有适当能力和接受能力的个人,使其能够在这种人机接口团队中工作。这些团队可以协同工作,确定每个级别的可操作部分或领域,然后与各卓越中心合作,生产基于需求的机器或系统。在目前的 Agniveer 计划中,人工智能系统可以为这些士兵在四年部署期结束后的留用性提供有价值的信息。

一个营、一个团或一艘舰艇要想真正发挥战斗力,就必须对其他作战人员(包括三军人员)有起码的基本认识。基本认识包括对其作战风格的认识以及对局势的认识,从而形成共同作战图景(COP)。目前,三军和海岸警卫队的联合演习次数有限,主要原因是规划和空间限制。资产类型、成本、适用性和损耗等方面的原因导致各部门参与联合演习的规模缩小。目前,各军种正在讨论和实施战区司令部,并探索更多的联合行动途径,而人工智能辅助的增强现实和虚拟现实技术为参与者提供了一个更加综合的共同训练机会。通过这种联合模拟和人工智能辅助的战争游戏,可以根据对手不断变化的战略和武器配置动态改变场景和设置,同时系统地解决自身的进程问题。无人驾驶航空系统和其他系统也是如此,它们可以成为提高作战效率的联合资产。

人工智能的能力和人工智能所有相关系统的作用需要作为三军专业军事教育(PME)的一部分加以介绍。未来战场需要一支综合的多领域作战部队,不能让指挥官或参谋人员不了解这些新兴技术所能提供的能力。PME 需要在军官、军士长和部队一级满足这些要求。即使在国际和平研究部等机构制定心理措施以接受机器和系统的同时,也有必要在部队/分队一级改革目前的培训方法,重点放在任务基本任务(MET)和任务基本任务清单(METL)上。有必要在每个级别设立人机接口小组(HMiT),以促进这一过渡。人机接口小组可以确定技术在哪些阶段可以提高和增强行动或各种任务的成功率。毕竟,任务的成功是战斗力的主要决定因素之一。

野战靶场(FFR)数量的减少、不断扩大的城市景观对传统训练场地的侵蚀、成本削减措施以及其他诸如此类的因素,都可以通过采用人工智能辅助的联合战争游戏和模拟方法加以克服,这将为各级领导层带来急需的意识、活力和联合(紫色)思维。人工智能系统和人力资源分析还可以协助人力资源管理,从招聘和培训阶段就开始识别操作特定平台的关键人员,这将在一定程度上消除在识别合适人选时发现的偏见或成见。

虽然人工智能和相关技术的能力是巨大的,但错误的实施战略可能会造成长期损害。随着新技术的采用,包括隐私在内的伦理道德问题也需要适当考虑。机器学习和深度学习的子集需要庞大的数据集来建立参考框架。在目前的情况下,由于保密程度不同,共享和记录事件的范围有限,因此拥有一个可行的训练数据集和一个能够应对多种突发情况的算法成为了一项挑战。著名的 "死亡算法 "概念,即自动驾驶汽车的算法应在可能发生碰撞的情况下拯救车内人员或行人,这让我们对设计人工智能系统所面临的挑战有了深入的了解。

结论

即使目前形式的人工智能已从 "弱人工智能 "转变为具有深度学习、神经网络等功能的强人工智能,人工直觉和量子认知等概念也将获得更多关注。一支为多平面、多领域行动做好准备的未来部队必须在人-机、人-系统层面实现真正的整合,而这可以通过在组织的各个层面采取系统、可持续、渐进但平行的措施来实现。团队成员之间的信任必须超越人与机器之间的信任,并采取充分的保障措施,防止系统性和隐性偏差。

成为VIP会员查看完整内容
118

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《大模型和情报分析》中文版,2023最新报告
专知会员服务
141+阅读 · 2023年8月24日
中文版《2040年的陆军:2030年目标的延伸》2023最新报告
专知会员服务
92+阅读 · 2023年7月19日
中文版《理解美国陆军实验工作》2023最新报告
专知会员服务
64+阅读 · 2023年5月18日
英国防部《国防云战略路线图》2023.2最新39页报告
专知会员服务
59+阅读 · 2023年2月8日
《军事行动自动化》【译文】2022最新报告
专知
47+阅读 · 2022年11月13日
国家自然科学基金
254+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
33+阅读 · 2013年12月31日
国家自然科学基金
15+阅读 · 2012年12月31日
国家自然科学基金
38+阅读 · 2012年12月31日
Arxiv
133+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
Arxiv
56+阅读 · 2023年3月26日
Arxiv
115+阅读 · 2023年3月24日
VIP会员
相关基金
国家自然科学基金
254+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
16+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
国家自然科学基金
33+阅读 · 2013年12月31日
国家自然科学基金
15+阅读 · 2012年12月31日
国家自然科学基金
38+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员