摘要

《应用于致命性自主武器系统的任务指挥原则》,Curtis R. Michael少校,56页。

这部专著研究了任务指挥的七项原则及其在致命性自主武器系统中的应用。像机器人和人工智能这样的创新技术正在迅速重塑社会规范。只是在过去几年里,美国军方才认真考虑自主技术在战场上的影响。随着政治和军事领导人处理这个新的战争时代,有关人类和机器在战争中的角色的新问题正在呈现。尽管围绕自主系统的知识和经验还很有限,但有一个既定的框架,即任务指挥原则,它经过了战斗的检验,非常适合解决模糊性问题。任务指挥原则是使用致命自主武器的明智方法。这七项原则是帮助军事指挥官应对复杂战争稳定的指导性方针。更重要的是,这些原则确保指挥官是最终的决策者,人民和信任是任务指挥的重点。信任在这个新的战争时代的重要性是不可低估的。信任确保了军事行动的凝聚力和统一性。了解自主武器系统中的人机信任关系,对于释放人机团队的竞争优势以及维护美国的国家安全利益至关重要。

简介

“第一台超智能机器是人类需要做出的最后一项发明,只要机器足够温顺,告诉我们如何控制它。奇怪的是,这一点在科幻小说之外很少被提及。有时,认真对待科幻小说是值得的。”欧文-约翰-古德,《第一台超智能机器》

今天,冲突的复杂特征也许比以往任何时候都更加明显。混合战争、网络攻击和非国家行为者正在不断地使战斗空间变得更加不确定、动态和模糊。革命性的技术,如高超音速武器、人工智能(AI)和自主系统(AS)进一步增加了这种复杂性。商业和军事工业对创新技术的空前依赖似乎是战争特征变化的催化剂,可能也是战争性质的催化剂。前美国国防部长吉姆-马蒂斯在评论人工智能和战争这个话题时说:"我当然质疑我原来的前提,即基本性质不会改变。你现在必须质疑这一点。"随着政治和军事领导人小心翼翼或不顾一切地跳入这个几乎没有先例的战争新时代,关于人类和机器在战争中的作用的新问题在等待着他们。

2014年,前国防部副部长罗伯特-沃克和他的同事发表了一份报告,解释了未来的战争会是什么样子。他们认为,未来的战争将主要由无人驾驶和自主武器等机器人技术来进行。"这种走向机器人时代的主要驱动力是来自商业公司的创新,而不是由政府研究和开发项目资助的军工综合体。"虽然这些新技术使众多民用行业受益,如医疗保健和金融,但军队以及恐怖组织越来越依赖它们。2019年9月对沙特阿拉伯能源基础设施的袭击就是一个例子,恐怖分子轻松地改装了少量的无人机,破坏了该国一半的石油和天然气生产。此外,在过去十年中,使用军用无人机的主权国家有九十五个,增加了百分之五十八。

从商业角度来看,机器人技术和自主技术的市场已经大大增长。例如,在过去六年中,工业机器人的销售量每年都在增加,导致全世界的机器人存量超过240万台。此外,2018年有1630万台服务机器人用于家庭用途,比前一年增加了59%。另一个说明自主技术增长趋势的例子是自动驾驶汽车。自动驾驶汽车在商业上和军事上都有很大的前景。用先进的传感器套件改装的车辆有可能消除对人类操作员的需求,或通过提高驾驶员的态势感知来减少人为错误。

美国军方利用人工智能通过致命和非致命的应用来加强国家安全。人工智能的一个非致命性应用是一个名为Maven项目的软件套件。Maven是国防部的一个人工智能应用,它研究遥控飞机的图像和视频资料,目的是改善无人机的打击。人工智能的致命应用,也被称为致命自主武器系统(LAWS),不仅被美国军队使用,也被世界各地的军队使用。本专著将致命性自主武器系统定义为:一旦启动,就可以在没有人类操作员进一步干预的情况下选择和攻击目标

LAWS的例子包括以色列国防军的HARPY导弹。HARPY是一种旨在有选择地攻击敌方防空设施的游荡弹药。同样地,美国空军最近出动了它的第一枚自主巡航导弹--远程反舰导弹(LRASM)。LRASM的设计是独特的,因为它可以根据敌方军舰的图像识别、红外、雷达和其他传感器的特征,自主地探测和攻击敌方军舰。

美国国防部(DoD)将人工智能定义为机器执行通常需要人类智能来执行任务的能力,无论是数字还是作为自主物理系统背后的智能软件。从本质上讲,人工智能是一个处理数据以识别模式、学习、建议作战方案或指导行动的融合系统。与商业行业一样,军方认识到人工智能支持的硬件和软件的好处。

随着自主武器的发展和使用变得突出,与它们的道德使用和可信度有关的问题将浮出水面。朱莉娅-麦克唐纳和杰奎琳-施耐德进行了一项调查,显示了目前无人驾驶飞行器的信任障碍。他们的调查显示,联合终端攻击控制人员(JTAC)和联合火力观察员(JFO)认为无人机 "比有人驾驶的飞机风险更大,更不值得信任"。此外,他们得出结论,在 "人类与敌人直接接触的领域,部队不愿意将决策权交给机器"。然而,他们有限的调查确实显示,当JTAC和JFO对无人驾驶飞机有更多的经验时,他们更可能倾向于无人驾驶飞机。这一发现表明,经验可能有助于解决控制人员对无人驾驶飞机的一些信任问题。

前面的例子说明了国防部的采购和企业在开发致命性自主武器系统时遇到的许多挑战之一。军方开发的新武器系统要经过广泛的测试和政策审查。在某些情况下,这一过程需要多年时间才能完成。然而,这一深思熟虑和务实的过程的总体目标是推出一种有能力和强大的武器,使军事指挥官能够在战场上自信地使用。致命武器系统是独特的,因为它们挑战了这种传统的武器采购和部署模式。使致命性自主武器系统的开发更加复杂的是国防部的3000.09号指令。该指令指出,指挥官和作战人员必须对武力的使用进行适当的人为判断。指令中没有明确界定什么是 "适当的判断水平"。此外,在当前的作战环境中,对手正专注于争夺、拒绝和降低通信系统,对适当控制的理解变得更加不明确。

人工智能技术的普遍性及其在整个民用和军用部门的广泛增长表明,战争的特征正在发生变化。美国的核心政治和军事战略文件,国家安全战略(NSS)和国防战略(NDS)承认这些技术的重要性,因为他们指示美国优先考虑并保持在新兴技术方面的竞争优势。在未来的冲突中,这些新兴技术将很可能超过人类的理解能力。Robert Latiff写道,时间将更加宝贵,战斗的纯粹速度将给决策带来压力。考虑到未来战争的这一背景,军队应该预期军事主动权的钟摆将逐渐从军事指挥官手中摆开,转到自主代理人身上。为了在人工智能主导的战斗空间中做好准备并取得成功,指挥官将需要把任务指挥的一些原则扩展到致命性自主武器系统。

成为VIP会员查看完整内容
62

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《人工智能与作战艺术》美国陆军57页技术报告
专知会员服务
203+阅读 · 2022年9月11日
【354页书卷】《北约2030:迈向新的战略方针》
专知会员服务
26+阅读 · 2022年9月9日
美国军事人工智能发展及其安全问题的思考
专知会员服务
80+阅读 · 2022年4月24日
756页美国国家安全AI战略报告
专知会员服务
157+阅读 · 2021年3月25日
《俄罗斯人工智能和自主性》258页报告
专知
23+阅读 · 2022年7月30日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
88+阅读 · 2009年12月31日
国家自然科学基金
12+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年9月19日
Arxiv
0+阅读 · 2022年9月17日
Long-Term Mentoring for Computer Science Researchers
Arxiv
0+阅读 · 2022年9月17日
VIP会员
相关资讯
《俄罗斯人工智能和自主性》258页报告
专知
23+阅读 · 2022年7月30日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
19+阅读 · 2012年12月31日
国家自然科学基金
88+阅读 · 2009年12月31日
国家自然科学基金
12+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员