战争的未来或许将由AI决定,但人类是否仍有用武之地?

在1983年的电影《战争游戏》中,一台名为WOPR(战争行动计划响应系统)的超级计算机险些引发美苏核战争,但因一名少年(马修·布罗德里克饰)的机智得以避免灾难。一年后上映的首部《终结者》中,名为“天网”(Skynet)的超级计算机为保护美国核武器而决定灭绝人类——只因将人类视为对其存在的威胁。

尽管这些电影向观众展现了智能机器失控的黑暗图景,它们却具有预言性。如今的人工智能(AI)已司空见惯,甚至在简单的谷歌搜索中也被常规应用。因此,AI被融入军事战略毫不意外。问题在于,我们对其高科技武器(包括已部署与研发中的型号)的能力知之甚少,也尚未准备好迎接那些可能永久改变战争形态的系统的到来。

纵观历史,决定战争胜负的始终是运用技术的人类智慧,而非技术本身。但未来,当人类智慧专注于创造比对手更具战场优势的系统时,这一规律或将改写。

“指数级、难以克服的意外”

正如人工智能公司SparkCognition创始人兼首席执行官阿米尔·侯赛因(Amir Husain)在《媒体新闻》的一篇文章中指出的,人工智能(AI)并非一种易于探测、监控或禁止的技术。将AI要素——视觉识别、语言分析、基于仿真的预测及高级搜索形式——与现有技术及平台整合,“可迅速催生全新且难以预见的能力”。侯赛因写道,其结果“能创造指数级、难以克服的意外”。

先进战争技术已广泛普及。军用无人机(UAV)的应用引发了对“杀手机器人”的警示。当无人机不再受人类操控、可自主执行军事任务时会发生什么?此类无人机不仅限于空中,亦可在地面或水下运作。赋予这些武器自主能力的AI技术已触手可及。

其生产与采购成本极为低廉。俄罗斯从伊朗购买无人机用于乌克兰战争,而乌克兰则建立家庭作坊式产业自主制造无人机对抗俄军。商用无人机可轻易改装为军事用途,进一步模糊了商业与军事企业的界限。但现阶段,人类仍掌握控制权。

类似问题可见于军民两用的信息收集系统,包括卫星、有人/无人飞行器、地面与海底雷达及传感器。AI可处理来自这些系统的海量数据,识别人类难以察觉的规律与变化。美军在伊拉克与阿富汗战争中因无法有效处理大数据而部分受挫。如今,远程操控的无人机已借助AI实现自主起降与巡航,人类操作员仅需专注于战术决策(如选择攻击目标并执行打击)。

AI还使这些系统能够高速运作,其决策速度远超人类参与的流程。迄今为止,决策速度始终是战争的核心要素。若AI系统与人类直接对抗,前者必将胜出。然而,AI系统排除人类因素的潜力令那些不愿目睹银幕末日情景成真者深感恐惧。

自动化与自主化之辨

需明确“自主化”(autonomous)与“自动化”(automated)的差异。若人类操控无人机,则该无人机属于自动化;若无人机被编程为自主行动,则称其具备自主性。但“自主武器”这一术语究竟指代武器本身(如无人机搭载的导弹)还是无人机整体?以“全球鹰”军用无人机为例:当其受地面操作员控制时属于自动化,但若与地面失去通信,该无人机可自主降落。这应归类为自动化、自主化,还是兼具两者特性?

核心问题在于系统是否属于“安全关键型”——即是否具备无需人类操作员介入即可自主决策对目标使用武器的能力。例如,无人机可自主攻击静态军事目标(如敌方军事基地),但通常禁止其攻击人员目标,以防误伤平民。许多国家已开发出在前者场景中能自主行动的实时成像无人机,但涉及人员目标时仍需人工介入。

自主化武器不限于无人机。美国及部分欧洲国家正研发能在空中、地面、水面及水下自主行动的军事系统,但其技术成熟度参差不齐。

美、欧正开发可由士兵通过智能手机现场指挥的自主直升机。自主地面战车(如坦克与运输车)及自主水下载具亦处于研发中。然而在几乎所有案例中,研发机构仍难以实现从技术开发到实战部署的跨越。

此类技术成熟度不足的成因多样,包括成本与不可预见的技术障碍,但组织与文化壁垒同样棘手。以美国为例,其自主无人机实战化进程受阻,主因是组织内斗与对有人驾驶飞行器的优先投入。

未来战士

在未来的战场上,精锐士兵可能依赖头戴式显示器获取海量信息,这些信息通过背包中的超级计算机搭载AI引擎收集与传输。AI可即时分析、精简数据并反馈至显示器。这是美国国防部官员提出的众多潜在场景之一。五角大楼已采纳一项相对简明的概念——“超能操作员”(hyper-enabled operator)。

该概念的目标是赋予特种部队战场“认知优势”,即“通过比对手更快做出知情决策以掌控局势”。换言之,他们能基于接收的信息以快于敌方的速度决策。军方决策模型称为“OODA循环(观察、调整、决策、行动)”,其实现依赖于计算机整合所有相关数据,并通过头戴式显示器等简易界面将其提炼为可操作信息。

该显示器还将配备“视觉环境翻译”系统,旨在实时将外语输入转化为清晰英文。该系统名为VITA,兼具视觉环境翻译与语音即时互译能力。其翻译引擎可使操作员“在先前无法实现的场景中展开有效对话”。

VITA(全能智能翻译助手,Versatile Intelligent Translation Assistant)提供俄语、乌克兰语及中文(含普通话)的语言支持。例如,操作员可使用智能手机扫描外国街道,实时获取路牌翻译。

对手AI系统

军事专家将对抗性攻击分为四类:规避、推断、投毒与提取。此类攻击易于实施且通常无需高深计算技能。实施规避攻击的敌方可能试图欺骗AI武器以逃避侦测——例如隐藏网络攻击,或令传感器将坦克误判为校车。这可能需要开发新型AI伪装技术(如策略性贴条布置)以迷惑AI系统。

推断攻击指对手获取AI系统信息以实施规避技术。投毒攻击针对训练阶段的AI系统,干扰军用工具训练数据集——例如错误标注车辆图像以误导目标识别系统,或篡改维护数据将系统即将故障分类为正常操作。

提取攻击通过访问AI接口获取足够信息以构建系统平行模型。若AI系统存在未授权访问漏洞,对手可预测其决策并利用该预测获利。例如,预测AI控制无人系统对特定视觉与电磁刺激的反应,进而改变其路径与行为。

欺骗性攻击日益普遍,典型案例包括:图像分类算法被诱骗识别不存在的内容、曲解图像含义(如将海龟误判为步枪)。类似地,可迫使自动驾驶车辆错误变道或闯红灯。

“智能主导权”(亦称认知战或“大脑控制”)被视为智能化战争新战场。据五角大楼报告,对手正训练并装备部队使用AI传感器与计算机网络“快速识别美军作战体系关键漏洞,继而整合跨域联合力量实施精准打击”。

控制对手思维不仅影响其对环境的认知,最终左右其决策。认知战与陆海空传统域同等重要,社交媒体被视为关键战场。

俄罗斯亦在推进AI能力建设。早在2014年,俄方即在莫斯科启用国家防御控制中心,作为评估与应对全球威胁的集中指挥所。该中心旨在从多源收集敌方动向信息并为高级军官提供应对建议。

俄罗斯宣称将最终开发出能“运行世界”的AI系统。其已在乌克兰使用AI干扰乌军无人机导航卫星无线信号,致使无人机失控坠毁。俄国防部正探索开发陆海空无人系统AI应用,但短期政策仍坚持人类必须保持绝对控制权。

同时,俄罗斯试图以AI提升无人机指挥、控制与通信能力。俄国防部强调将AI用于数据采集与分析,视其为当前“数字化”作战技术与系统发展的自然演进。

“渡鸦岗哨”:美国阿富汗战争中的AI应用

美国情报机构在战场上使用AI虽短暂却成效显著。2019年由美国情报官员团队(代号“极客密室”)在硅谷技术支持下开发的AI工具“渡鸦岗哨”(Raven Sentry),旨在预测叛乱分子袭击。该工具的初始应用正值美军基地关闭、兵力缩减与情报资源转移之际。“渡鸦岗哨”依赖开源数据运作。

“我们注意到商业卫星数量激增、互联网新闻报道可获取性提升、社交媒体发帖激增及大规模用户通讯应用带来的机遇,”2019年7月至2020年7月担任阿富汗喀布尔“坚定支援”J2情报任务参谋长的托马斯·斯帕尔(Thomas Spahr)上校表示。

该AI工具还整合了阿富汗叛乱活动跨越40年(涵盖1980年代苏联占领时期)的历史模式,并纳入环境因素分析。“历史上,叛乱分子会选择特定日期(如节日)或特定天气与光照条件发动袭击,”斯帕尔指出。他补充道:“AI的精妙之处在于它能持续更新该模板。机器会随着数据吸收不断学习。”在2021年随美军撤出阿富汗而终止前,“渡鸦岗哨”已展现其可行性,对叛乱袭击的预测准确率达70%。该工具发现:当温度高于4摄氏度(39.2华氏度)、月照度低于30%且无降雨时,袭击发生概率更高。斯帕尔对结果表示满意:“我们验证了商业化生产的非密级信息可生成预测性情报。”

乌克兰:AI的战争试验场

自2022年俄罗斯乌克兰全面战争以来,俄乌战争已成为AI军事应用的试验场。面对火力与兵力的双重劣势,乌军通过改造市售设备将其变为致命自主武器。俄军同样运用AI实施网络攻击与GPS干扰。

乌克兰“猎隼侦察”四旋翼无人机“可自主发现、识别并攻击64类俄军‘军事目标’”。此类无人机设计为全自主运作,且俄军无法干扰其信号——与乌军其他无人机形成鲜明对比。

通过在线代码与树莓派等硬件店易购的爱好者计算机,乌军成功构建创新型杀手机器人。除智能手机操控的无人机外,乌军还开发了使用PlayStation或平板控制器操作的自主瞄准炮塔。该武器因外形酷似皮克斯机器人瓦力(WALL-E)得名“沃利”,可自动锁定1000米(3280英尺)内目标,并在预设位置间切换以快速覆盖广域。

制造商正研发可打击移动目标的升级版火炮,其能自动识别地平线外目标并完成瞄准,操作员仅需按键射击。乌军多数无人机外观与沃尔玛售品无异,称为“第一人称视角(FPV)无人机”。FPV时速100英里,配备四旋翼与无线摄像头,可将飞行画面回传操作员。加装炸弹后,FPV可化身反坦克武器,单价仅400美元——相比百万美元级坦克堪称廉价。制造商Vyriy(名称源自斯拉夫神话中的神秘国度)即以此类产品著称。

若单架自杀式无人机已具威胁,集群攻击则显著提升命中概率。自然界中,蚁群无论觅食或筑巢皆以整体行动;同理,自主无人机群可无需人类干预,以“有机体”形态执行任务,无视个体损毁或通信中断。

尽管人类仍处“控制回路”,此类武器亦可设计为全自主模式,即无需人工干预自主选择攻击目标。

乌克兰并非无技术根基而仓促采用AI武器。《纽约时报》记者保罗·莫泽指出:“长期以来,乌克兰一直是全球科技产业的‘后勤办公室’。”该国本就拥有大量程序员与专家,战时紧急转型将军用技术嫁接于民用产品(如约会软件)。莫泽报道称:“他们提取现有基础代码,结合战争新数据,将其改造为全新武器。”

“大型防务巨头正涌现酷炫创新,”战争技术作家P·W·辛格表示,“硅谷巨头与初创企业同样活跃。”

初创企业安杜里尔(Anduril)即为一例。创始人帕尔默·拉基(Palmer Luckey)在将虚拟现实头显Oculus出售给脸书(现Meta)后,创立该AI武器公司并向乌供无人机。“乌克兰是极富挑战的试验场,”他坦言,“乌方估算任何无人机平均寿命仅四周。关键在于能否快速响应与适应。”以《指环王》中圣剑命名的安杜里尔,其产品已销往美国等十国。

“我深信传统防务公司缺乏投资AI、自主系统与机器人的人才与激励机制,”拉基表示。其公司无人机ALTIUS可从发射管弹出并展开机翼与尾翼,以螺旋桨驱动如战机般携带30磅弹头。拉基认为相比波音等传统承包商,该模式能以更低成本更快量产AI武器。

安杜里尔(2017年创立)同时开发用于近海与深水勘测的Dive-LD水下无人机。“这款自主潜航器续航极长,可下潜至6000米(近2万英尺)深度——足以抵达几乎所有海床,”拉基介绍。乌军已自制海上无人机(实为装载炸药的摩托艇),在黑海对俄海军造成重创。

尽管安杜里尔CEO布莱恩·辛普夫承认其无人机在乌尚未取得显著战果,但他相信局势将变。此类无人机一旦发射即无需地面操控,使俄军难以通过信号干扰使其失效。

“机载自主系统是核心竞争力,”拉基强调,“这不是遥控飞机,而是搭载可自主搜索、识别并撞击目标的‘大脑’。”然而,乌军每项创新皆遭俄军反制。“数月前有效的技术如今须持续迭代,”胡佛研究所军事技术研究员杰奎琳·施耐德指出,“软件正彻底改变变革速率。”

加沙战争中的“薰衣草”系统

在入侵加沙行动中,以色列国防军(IDF)日益依赖人工智能支持的“薰衣草”(Lavender)程序锁定哈马斯成员,此举引发争议。据2024年4月以色列-巴勒斯坦媒体《+972杂志》与希伯来语新闻网站Local Call联合报道,以军实施的“薰衣草”系统对军事行动影响深远,情报官员实质上将AI机器的输出结果“视其为人类决策”。

“薰衣草”由以军精锐8200部队(相当于美国国家安全局或英国政府通信总部)开发。

以色列政府以实用性与效率为由为其辩护。“以军使用AI增强人类操作员的决策流程。此类应用符合国际人道法,如同2001年‘9·11’事件后多国军队在非对称战争中的实践,”TMC阿塞尔研究所研究员、颠覆性技术与军事法交叉领域专家玛格达·帕乔尔斯卡表示。

用于训练“薰衣草”识别武装分子的数据源自加沙地带230万居民,该地区在2023年军事行动前已处于严密监控。

报道称,多达3.7万名巴勒斯坦人被标记为疑似武装分子并列为潜在打击目标。“薰衣草”的打击清单在2023年10月7日哈马斯袭击(造成约1200人死亡、250人被劫持)后入侵行动启动前已制定完毕。配套AI系统“爸爸在哪?”(Where’s Daddy?)用于追踪名单人员动向。《+972杂志》消息源称,初期“无需核查机器选择目标的依据或审查原始情报数据”,负责官员对机器决策仅作“橡皮图章”式批准后即授权轰炸。一名情报官员坦言:“此阶段我每目标仅投入20秒,日处理数十个目标。作为人类除盖章外毫无价值,但这节省大量时间。”

已知“薰衣草”存在10%的误判率,意味着部分锁定目标可能与哈马斯或其他武装组织无关。打击通常于夜间目标人员居家时实施,导致其家属伤亡风险激增。

系统为每个体生成1-100分的关联度评分,依据其与哈马斯或伊斯兰圣战组织武装分支的关联程度。高分者及其家人邻居均遭清除,而据称官员以“效率”为由鲜少核查目标真实性。“这是我记忆中史无前例的,”一名使用过该系统的情报官员表示,并称同僚更信任“统计机制”而非悲愤士兵。“包括我在内,所有人都在10月7日失去亲友。机器冷酷执行任务,这让流程更轻松。”

以军此前曾使用另一AI系统“福音”(The Gospel)——该系统在《+972杂志》既往调查与以军出版物中均有描述——锁定疑似藏匿武装分子的建筑。“福音”调用数百万条数据生成打击清单,速度超人工情报团队50倍以上。加沙战事前两月内,其日均打击100个目标,约为十年前同地区冲突的五倍。哈马斯政治或军事意义建筑被标记为“权力目标”。

AI武器的弱点

若AI武器具备自主性,其必须拥有精确感知能力。换言之,若将民用车辆误判为军事目标,其响应速度无关紧要——车内平民终将丧生。当然,许多AI系统已在感知能力上表现卓越,尤其随着AI驱动设备与算法不断优化。例如,俄军曾测试80架无人机同步飞越叙利亚战场并实现统一可视化,时任国防部长谢尔盖·绍伊古称其如“半奇幻电影”般揭示所有潜在目标。

但隐患始终存在。设计AI武器时,开发者首先需获取数据。多数AI系统通过专家系统(通常为人类)标注的数据训练,例如标记含防空炮的场景。当输入图像与训练集差异较大时(如光照不足、角度偏斜或部分遮挡),AI图像处理能力将失效。AI识别系统并不理解图像内容,而是学习像素纹理与梯度特征。这意味着AI可能正确识别局部却误解整体,导致分类错误。

为增强AI对欺骗性图像的防御,工程师采用“对抗训练”——向分类器输入对抗性图像以训练其识别并忽略非目标。宾夕法尼亚州立大学研究生尼古拉·帕佩诺的研究表明,即使经过对抗训练的系统在图像过载时仍可能失效。对抗性图像利用AI系统的“决策边界”特性:这些无形规则指导系统区分狮子与豹子,其本质是在心理图谱中将狮子与豹子划入不同区域。分隔两区域的线——狮子变为豹子或反之的临界点——即决策边界。研究对抗训练的杰夫·克隆质疑此类分类系统的有效性,认为其过于武断:“这些网络仅训练数据簇间的分界线,而非深度建模豹子或狮子的本质特征。”

大型数据集常由人工标注公司处理。获取与共享数据集对偏好数据保密与权限管控的机构而言极具挑战。例如,军事数据集可能包含热成像图像,但除非与开发者共享,否则AI武器效能将受限。依赖数百词库的聊天机器人AI设备显然无法替代词汇量更大的人类操作员。

AI系统还受限于多任务处理能力。人类可识别敌方载具、选择打击武器、预测路径并发起攻击,而AI无法复现此流程。当前,训练识别T-90坦克的系统极可能无法识别其他不同外形、不同功能坦克——尽管二者均为坦克且任务均需图像识别。许多研究者正试图通过迁移学习解决该问题,但实用化系统仍需数年。

可以预见,对手将利用这些弱点:欺骗图像识别引擎与传感器,或发动网络攻击绕过入侵检测系统,向AI系统输入篡改数据以诱导错误决策。

美国的AI战备

美国国防部向来更倾向于采购与建造硬件而非部署新技术。尽管如此,空军仍与波音、通用原子能及克拉托斯(Kratos)公司合作开发AI驱动无人机。空军还测试由人工智能操控的无人驾驶XQ-58A“女武神”实验机。这款下一代无人机是空军期望成为传统战斗机编队强力补充的原型机,目标是为人类飞行员配备可部署战场的“高能机器人僚机集群”。但“女武神”并非全自主——尽管其使用AI与传感器识别评估敌方威胁,是否打击目标仍由飞行员决定。

五角大楼虽未在战场部署自主武器,但正测试完善无需人工干预的武器系统。典型案例是陆军的“聚合计划”(Project Convergence)。2020年8月亚利桑那州尤马试验场的一次测试中,陆军利用空基与陆基传感器追踪模拟敌军,并通过华盛顿州基地的AI计算机处理数据,随后向尤马陆基火炮发送火力指令。“整个流程据称在20秒内完成,”美国国会研究服务局后续报告称。

在名为“复制者”(Replicator)的倡议中,五角大楼计划量产数千架自主无人机。但尚无官方政策批准允许设备在无人授权下自主决定打击目标的自主武器。

海军拥有对标“聚合计划”的AI项目“超配计划”(Project Overmatch)。海军作战部长迈克尔·吉尔戴(Michael Gilday)称其旨在“构建一支能海上集群作战、从远近多轴多域同步投射致命与非致命效应的舰队”。该项目细节极少公开。

据兼任美国国家安全局(NSA)局长、网络司令部司令及中央安全局局长的蒂莫西·霍夫(Timothy Haugh)将军透露,NSA约7000名分析员正尝试将AI整合至其行动。霍夫表示截至2024年,NSA参与170项AI项目,其中10项关乎国家安全。“其余160项旨在为人员创造实验、利用与合规应用的机会。”

目前,AI仍被视为传统平台的补充,但亦被赋予四大附加角色:自动化规划与战略制定;比人类或传统系统更高效融合解析信号;辅助天基系统(主要通过收集合成信息应对高超音速威胁);赋能下一代网络与信息战能力。

AI应用的伦理争议

尽管自主武器的使用已争论数十年,但观察者普遍认为国际社会难以达成新规,尤其在美国、中国、以色列、俄罗斯等国竞相研发更先进武器的背景下。“地缘政治使其不可能实现,”奥地利驻联合国自主武器首席谈判代表亚历山大·克门特(Alexander Kmentt)表示,“这些武器将被使用,且几乎成为各国军火库标配。”

面对挑战,人权观察组织呼吁“紧急谈判并通过具法律约束力的协议以禁止与规范自主武器系统”,并发起“阻止杀手机器人”运动,称已有超270个团体与70国加入。即便争议聚焦自主武器,AI无人机制造商安杜里尔CEO布莱恩·辛普夫提出不同视角:“AI武器并非为剔除人类决策,其核心在于如何提升人类决策者效能并增强其责任归属。”

然而,自主AI武器研发仍在推进。除依赖武器进行生死抉择的伦理问题外,AI自身存在缺陷:错误与误判相对常见。系统底层算法可能产生“幻觉”——看似合理的结果实为彻底谬误。若部署基于严重缺陷指令且人类无法察觉的AI武器,后果深远。极端反乌托邦场景中,敌方以AI将领替代人类,迫使美军效仿,导致AI系统在战场互搏,引发不可预测的灾难性后果。

伦敦玛丽女王大学埃尔克·施瓦茨(Elke Schwarz)博士通过政治学与实证研究框架审视AI武器伦理困境。她认为AI武器系统整合将加剧人类目标物化,提升对附带损害的容忍度。自动化可能“削弱AI瞄准系统操作者的道德能动性,弱化其伦理决策能力”。对自主系统的偏好或刺激防务业盲目投资军事AI,“影响战争中对AI责任使用的认知”。她敦促政策制定者及时评估风险。

亚利桑那州立大学教授、新美国智库战略家彼得·辛格(Peter Singer)指出:“AI的影响远超机枪或飞机,堪比工业革命中机械力对体力的取代。AI在软件端的崛起与硬件端机器人应用的结合,正引发我们前所未遇的是非争议。”他主张建立“约束战争AI使用的框架”,适用于设计与应用者。

辛格提出的“机器许可性”问题聚焦机器在人类控制外的行为边界。他警示另一新挑战“机器问责”:“若行动由机器执行,责任该由谁承担?传统汽车责任明晰,但所谓无人驾驶汽车则复杂得多。”战场上,若因目标误判或误伤平民,责任是否归于机器?

成为VIP会员查看完整内容
3

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
人工智能赋能兵棋推演与未来战场
专知会员服务
42+阅读 · 2024年6月14日
ICLR'24 大语言模型智能体最新研究进展
专知会员服务
94+阅读 · 2023年10月20日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
461+阅读 · 2023年3月31日
Arxiv
11+阅读 · 2023年3月8日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
10+阅读 · 2021年8月4日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
VIP会员
相关资讯
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员