人工智能是有望改变未来几年战争面貌的众多热门技术之一。描述其可能性并警告那些在人工智能竞赛中落后的人的文章比比皆是。美国防部已经创建了联合人工智能中心,希望能在人工智能的战斗中获胜。人工智能的愿景是使自主系统能够执行任务、实现传感器融合、自动化任务以及做出比人类更好、更快的决策。人工智能正在迅速改进,在未来的某一天,这些目标可能会被实现。在此期间,人工智能的影响将体现在我们军队在无争议的环境中执行的更平凡、枯燥和单调的任务上。

人工智能是一种快速发展的能力。学术界和工业界的广泛研究正在缩短系统训练时间并获得越来越好的结果。人工智能在某些任务上很有效,例如图像识别、推荐系统和语言翻译。许多为这些任务设计的系统今天已经投入使用,并产生了非常好的结果。在其他领域,人工智能非常缺乏人类水平的成就。其中一些领域包括处理人工智能以前从未见过的场景;理解文本的上下文(理解讽刺,例如)和对象;和多任务处理(即能够解决多种类型的问题)。今天的大多数人工智能系统都被训练来完成一项任务,并且只在非常特定的情况下这样做。与人类不同,它们不能很好地适应新环境和新任务。

人工智能模型每天都在改进,并在许多应用中显示出它们的价值。这些系统的性能可以使它们在信息战中展示出非凡的能力,诸如在卫星图像中识别 T-90 主战坦克、使用面部识别识别人群中的高价值目标、为开源情报翻译文本以及文本生成等任务。人工智能最成功的应用领域是那些有大量标记数据的领域,如 Imagenet、谷歌翻译和文本生成。 AI 在推荐系统、异常检测、预测系统和竞技游戏等领域也非常有能力。这些领域的人工智能系统可以帮助军方在其承包服务中进行欺诈检测,预测武器系统何时因维护问题而失效,或在冲突模拟中制定制胜策略。所有这些应用程序以及更多应用程序都可以成为日常操作和下一次冲突中的力量倍增器。

人工智能在军事应用方面的不足

当军方希望将人工智能在这些任务中的成功经验纳入其系统时,必须承认一些挑战。首先是开发人员需要获得数据。许多人工智能系统是使用由一些专家系统(例如,对包括防空炮台的场景进行标注),通常是人类标注的数据进行训练。大型数据集通常由采用人工方法的公司进行标注。获得这种数据并分享它是一个挑战,特别是对于一个喜欢对数据进行分类并限制其访问的组织来说。一个军事数据集的例子可能是由热成像系统产生的图像,并由专家进行标注,以描述图像中发现的武器系统(如果有的话)。如果不与预处理器和开发人员共享,就无法创建有效使用该数据集的人工智能。人工智能系统也很容易变得非常大(因此很慢),并因此容易受到 "维度问题 "的影响。例如,训练一个系统来识别现有的每一个可能的武器系统的图像将涉及成千上万的类别。这样的系统将需要大量的计算能力和在这些资源上的大量专用时间。而且由于我们正在训练一个模型,最好的模型需要无限量的这些图像才能完全准确。这是我们无法实现的。此外,当我们训练这些人工智能系统时,我们经常试图强迫它们遵循 "人类 "的规则,如语法规则。然而,人类经常忽视这些规则,这使得开发成功的人工智能系统在情感分析和语音识别等方面具有挑战性。最后,人工智能系统在没有争议的、受控的领域可以很好地工作。然而,研究表明,在对抗性条件下,人工智能系统很容易被愚弄,导致错误。当然,许多国防部的人工智能应用将在有争议的空间运作,如网络领域,因此,我们应该对其结果保持警惕。

忽略敌人在人工智能系统方面的努力,其靠此击败我们,因为这些看似超人类的模型也有局限性。人工智能的图像处理能力在给定不同于其训练集的图像时并不十分强大--例如,照明条件差、角度不对或部分被遮挡的图像。除非这些类型的图像在训练集中,否则模型可能难以(或无法)准确识别内容。帮助我们信息战任务的聊天机器人仅限于数百个字,因此不能完全取代一次可以写几页的人类。预测系统,如IBM的Watson天气预测工具,由于它们试图模拟的系统复杂性,在维度问题和输入数据的可用性方面很困难。研究可能会解决其中的一些问题,但很少有问题会像预测或期望的那样迅速得到解决。

人工智能系统的另一个弱点是他们没有能力进行多任务处理。人类有能力识别敌方车辆,决定对其采用何种武器系统,预测其路径,然后与目标交战。这套相当简单的任务目前对人工智能系统来说是不可能完成的。充其量,可以构建一个人工智能的组合,将个别任务交给不同的模型。这种类型的解决方案,即使是可行的,也会带来巨大的传感和计算能力的成本,更不用说系统的训练和测试了。许多人工智能系统甚至没有能力在同一领域内转移他们的学习。例如,一个被训练来识别T-90坦克的系统很可能无法识别中国的99式坦克,尽管它们都是坦克,而且都是图像识别任务。许多研究人员正在努力使系统能够转移他们的学习,但这样的系统离实际应用还有长久的时间。

人工智能系统在理解输入和输入中的背景方面也非常差。人工智能识别系统并不理解图像是什么,它们只是学习图像像素的纹理和梯度。给予具有这些相同梯度的场景,人工智能很容易错误地识别图片的一部分。这种缺乏理解的情况可能会导致作出错误分类,例如将湖面上的一艘船识别为BMP,但人类缺不会。

这导致了这些系统的另一个弱点--无法解释它们是如何做出决定的。人工智能系统内部发生的大部分事情都是一个黑盒,人类几乎无法理解系统是如何做出决定的。这对于高风险的系统来说是一个关键问题,比如那些做出参与决定的系统,或者其输出可能被用于关键决策过程的系统。对一个系统进行审计并了解其犯错原因的能力在法律上和道德上都很重要。此外,在涉及人工智能的情况下,我们如何评估责任的问题是一个公开研究点。最近,新闻中出现了许多例子,人工智能系统在贷款审批和假释决定等领域基于隐藏的偏见做出了糟糕的决定。不幸的是,关于可解释的人工智能的工作多年来一直没有取得成果。

人工智能系统也很难区分相关性和因果关系。经常用来说明两者区别的臭名昭著的例子是溺水死亡和冰激凌销售之间的相关性。一个人工智能系统得到了关于这两个项目的统计数据,却不知道这两个模式之所以相关,只是因为两者都是天气变暖的结果,并可能得出结论,为了防止溺水死亡,我们应该限制冰淇淋的销售。这类问题可能表现在一个军事欺诈预防系统中,该系统被告知按月采购的数据。这样一个系统可能会错误地得出结论,认为9月份的欺诈行为会随着支出的增加而增加,而实际上这只是年终消费习惯的一个结果。

即使没有这些人工智能的弱点,军方目前应该关注的主要领域是对抗性攻击。我们必须假设,潜在的对手将试图愚弄或破解我们使用的任何可获得的人工智能系统。将试图愚弄图像识别引擎和传感器;网络攻击将试图躲避入侵检测系统;后勤系统将被输入篡改的数据,用虚假的需求堵塞供应线。

对抗性攻击可分为四类:规避、推理、中毒和提取。事实证明,这些类型的攻击很容易完成,通常不需要计算技能。逃避攻击试图愚弄人工智能引擎,往往是希望避免被发现--例如,隐藏网络攻击,或说服传感器相信一辆坦克是一辆校车。未来的主要生存技能可能是躲避人工智能传感器的能力。因此,军方可能需要开发一种新型的人工智能伪装,以击败人工智能系统,因为事实证明,简单的混淆技术,如战略性的胶带放置,可以愚弄人工智能。逃避攻击通常是通过推理攻击进行的,推理攻击可以获得关于人工智能系统的信息,这些信息可以用来实现逃避攻击。中毒攻击的目标是训练期间的人工智能系统,以实现其恶意的意图。这里的威胁将是敌人获得用于训练我们工具的数据集。可能会插入误标的车辆图像以愚弄目标系统,或篡改维护数据,旨在将即将发生的系统故障归类为正常操作。考虑到我们的供应链的脆弱性,这将不是不可想象的,而且很难发现。提取攻击利用对人工智能界面的访问来了解人工智能的运行情况,从而创建一个系统的平行模型。如果我们的人工智能不被未经授权的用户所保护,那么这些用户可以预测我们的系统所做的决定,并利用这些预测为自己服务。人们可以设想对手预测人工智能控制的无人系统将如何应对某些视觉和电磁刺激,从而影响其路线和行为。

军事人工智能应用的发展之路

人工智能在未来的军事应用中肯定会有作用。它有许多应用领域,它将提高工作效率,减少用户的工作量,并比人类更迅速地运作。正在进行的研究将继续提高其能力、可解释性和复原力。军队不能忽视这项技术。即使我们不拥有它,但我们的对手肯定会发展AI,我们必须有能力攻击和击败他们的AI。然而,我们必须抵制这种重新崛起的技术诱惑。将脆弱的人工智能系统放置在有争议的领域,并让它们负责关键的决策,这将为灾难性的结果打开了机会。在这个时候,人类必须继续负责关键决策。

鉴于我们暴露的人工智能系统被攻击的概率很高,以及目前人工智能技术缺乏弹性,投资军事人工智能的最佳领域是那些在没有争议的领域运作的人工智能。由人类专家密切监督或具有安全输入和输出的人工智能工具可以为军队提供价值,同时减轻对漏洞的担忧。这类系统的例子有医学成像诊断工具、维修故障预测应用和欺诈检测程序。所有这些都可以为军队提供价值,同时限制来自对抗性攻击、有偏见的数据、背景误解等等的风险。这些并不是由世界上的人工智能推销员赞助的超级工具,但却是最有可能在短期内获得成功的工具。

作者信息

保罗-麦克斯韦中校(退役)是美国军事学院陆军网络研究所的计算机工程网络研究员。他在服役的24年中曾是网络和装甲部队的军官。他拥有科罗拉多州立大学的电子工程博士学位。

所表达的观点仅代表作者本人,不反映美国军事学院、陆军部或国防部的官方立场。

成为VIP会员查看完整内容
92

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
机器学习的 7 个关键军事应用
专知会员服务
257+阅读 · 2022年4月24日
经验分享:如何在创业中,用上GPT-3等AI大模型
THU数据派
1+阅读 · 2022年3月2日
2022年值得关注的8个人工智能趋势
AI前线
2+阅读 · 2022年2月11日
AI 真的能够理解人类语言吗?
CSDN
1+阅读 · 2021年12月24日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
21+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
11+阅读 · 2018年5月13日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
21+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员