摘要

人工智能领域的进展继续扩大这组技术的潜在军事应用范围。本文探讨了信任在人机联合作战中的关键作用,以及依靠人工智能来补充人类认知的潜在影响。如果依靠人工智能来准确处理传感器数据,操作自主系统和平台,或通过拟议的作战概念(如以决策为中心的战争)提供有利的决策支持,设想机器智能的中央指挥和控制作用,那么信任机器智能将是未来作战中的一个关键组成部分。鉴于这些技术和理论的发展,信任的概念对于机器智能在战术和作战层面的军事行动中的使用变得高度相关,正确校准的信任水平是安全和有效行动的基础。在简要回顾了机器智能的最新进展和对信任概念的探索之后,本文概述了人工智能在战场上的当前和潜在应用,以及由不充分或不合理的高信任度带来的挑战。

引言

纵观历史,技术已经扩大了武装冲突的领域,战术交战的节奏,战场的地理范围,以及指挥官与部队沟通的手段。技术创新--包括军事和民用--改变了军队的作战方式以及国家计划和进行这些冲突的方式。在21世纪,迄今为止,很少有进步能像统称为人工智能(AI)的一组技术那样获得如此多的关注。人工智能正准备迎来一个新的时代,在这个时代,机器智能和自主性正在为军事行动的规划和执行产生明显的新概念。算法战争可能会带来一些独特的东西:增强甚至取代人类决策过程的系统,其速度可能超过人类规划者的认知能力。
新兴技术的整合提出了任何数量的基本组织和伦理问题,值得关注。本文将采用定性的社会科学方法,重点讨论人类-自治团队(HAT)的一个重要方面:鼓励对机器智能的适当信任程度。有大量的学术文献关注自动化或机器人技术中的信任问题,但有关具体军事应用的工作较少。当人工智能在联合作战中被实际部署时,在信任方面有哪些挑战和机会?在简要回顾人工智能和概述机器智能在战场上的可能应用之后,本文在分析鼓励适当信任水平的陷阱和潜在解决方案之前,探讨了信任和信任校准的概念。

人工智能的进展

几十年来,人类一直对赋予机器某种形式的人工智能的可能性着迷,Nils Nilsson将其定义为 "致力于使机器智能化的活动,而智能是使一个实体在其环境中适当运作并具有预见性的品质"。在数字时代的早期,出现了两种广泛的人工智能方法。自上而下的专家系统方法使用复杂的预编程规则和逻辑推理来分析一个特定的数据集。对于具有可预测规则的明确定义的环境--诸如分析实验室结果或下棋等应用--专家系统或 "符号 "人工智能(基于符号逻辑)的性能主要取决于处理速度和算法的质量。另一大类使用自下而上的机器学习方法,模拟人类通过检测数据中的模式进行学习的方式。神经网络是一种以人脑为模型的机器学习形式,能够通过使用多个(因此是 "深")人工神经元层来识别复杂的模式,是被称为 "深度学习 "的技术的基础。通过其在数据集中寻找关系的能力,这种技术也被称为 "连接主义"。
自上而下、基于规则的符号系统和自下而上的机器学习连接主义技术之间的差异是很大的,特别是关于它们的潜在应用范围和灵活性。深度学习方法的显著特点是能够将学习与它所训练的数据集分开,因此可以应用于其他问题。基于规则的算法可以在狭义的任务中表现得非常好,而深度学习方法能够迅速找到模式,并在 "蛮力 "专家系统计算方法无效的情况下有效地自学应用。最近的一些人工智能进展显示了模仿创造力的能力,产生了有效的解决问题的方法,这些方法对人类来说可能是反直觉的。
然而,总的来说,人工智能仍然是狭窄的或 "脆弱的",即它们在特定的应用中功能良好,但在用于其他应用时仍然不灵活。与人类的认知相比,鉴于机器的计算速度远远超过人脑,机器智能在将逻辑规则应用于数据集时要优越得多,但在尝试归纳推理时,它必须对数据集或环境进行一般性的观察,这就显得不足。大多数机器学习仍然需要大量的训练数据集,尽管新的方法(包括生成对抗网络(GAN)和 "小于一次 "或LO-shot学习)正在出现,需要非常小的数据集。图像识别算法很容易被混淆,不能像人类那样立即或直观地理解情景背景。这种脆性也延伸到了其他问题,比如游戏。虽然人工智能在视频游戏中经常表现出超人的能力,但他们往往不能将这种专业知识转移到具有类似规则或玩法的新游戏中。
虽然人工智能技术继续在变得更加适应方面取得重大进展,但任何接近人类的人工通用智能仍然难以实现。评估人工智能的近期前景因该技术的渐进式进展而变得更加复杂。围绕着人工智能的炒作--在很大程度上被深度学习方法的成功所推动--既导致了对该技术未来的不切实际的期望,也导致了对其非常大的进展的正常化。正如一份报告所指出的,"人工智能将一项新技术带入普通人的视野,人们对这项技术习以为常,它不再被认为是人工智能,而出现了更新的技术"。尽管象征性的人工智能和各种形式的机器学习构成了该领域最近的大部分进展,也许除了融合这两种方法的尝试之外,未来仍然不确定。一些人猜测,机器学习技术带来的进展可能会趋于平稳,而另一些人则保持乐观。相关的技术进步,如短期内的计算机芯片设计和长期内的量子计算,可能会影响进一步进展的速度。

成为VIP会员查看完整内容
184

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
【AI+军事】附PPT 《让作战实验室为多域作战做好准备》
专知会员服务
81+阅读 · 2022年4月17日
【AI+军事】附论文+PPT 《重新评估隐藏者-引导者问题》
专知会员服务
45+阅读 · 2022年4月16日
【AI+军事】最新22页PPT,解读人工智能军事应用
专知会员服务
300+阅读 · 2022年3月14日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
国家自然科学基金
252+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年2月4日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月18日
Deep Learning in Video Multi-Object Tracking: A Survey
Arxiv
55+阅读 · 2019年7月31日
VIP会员
相关VIP内容
【AI+军事】附PPT 《让作战实验室为多域作战做好准备》
专知会员服务
81+阅读 · 2022年4月17日
【AI+军事】附论文+PPT 《重新评估隐藏者-引导者问题》
专知会员服务
45+阅读 · 2022年4月16日
【AI+军事】最新22页PPT,解读人工智能军事应用
专知会员服务
300+阅读 · 2022年3月14日
相关基金
国家自然科学基金
252+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2013年2月4日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员