摘要:AI赋能武器虽提升速度与精度,却侵蚀责任机制、加剧升级风险、扩大监控与人道主义伤害,并超越现行法律框架。亟需缔结约束性条约,保留有效人类控制、强化测试标准、严格出口管制与行业伦理规范,以避免不稳定的自动化军备竞赛。
人工智能已成为冲突各层级的战力倍增器,将决策周期从分钟级压缩至毫秒级。自主武器、算法化指挥控制与信号情报级自动化使国家能够融合传感器数据、网络遥测与AI生成预警,构建实时作战图景。但相同架构也使部队暴露于对抗性机器学习攻击(数据投毒、隐藏模型后门、隐秘模型提取技术)——这些威胁可在一夜间逆转战术优势。
攻击面持续扩大:大语言模型(LLM)流程已成即时注入与越狱窃取的目标;AI硬件、固件与第三方模型权重的供应链需接受与微电子同等级别的审查。可防御技术栈需遵循零信任AI原则,采用防篡改模型软件物料清单(SBOM),以及加密封装技术(安全飞地、差分隐私、同态加密与联邦学习),确保涉密工作流物理隔离但保持战备状态。量子计算威胁迫在眉睫,须加速研发抗量子AI防护机制,防范当前加密技术沦为未来后门。
作战韧性取决于持续红队评估机制(强化LLM智能体抵御新型恶意软件与自主攻击工具),以及实时协同检测与反制由国家行为体驱动的生成式模型影响力行动。治理框架正在跟进:美国国家标准与技术研究院(NIST)AI风险管理框架与国防部首席数字与人工智能办公室(CDAO)指南提供基准,但决策者需构建端到端保障体系(涵盖供应链审查、持续监控与任务专用熔断机制),确保每个算法兼具可控性与可追责性。
简言之,人工智能已成新战略制高点;安全掌控该领域将定义未来十年的国防格局。
人工智能(AI)正在快速改变战争形态。先进算法与自主系统正被开发并部署于军事用途,承诺实现更快决策与战场新能力——各国正竞相将AI整合至武装力量以获取战略优势,近期冲突(如乌克兰战场)常被描述为AI赋能武器的试验场。
然而伴随创新而来的是对军事化AI负面后果的日益警觉。从将生死决策权委派机器的伦理困境,到意外升级与全球军备竞赛失稳等安全风险,AI对战争的影响引发紧迫关切。联合国秘书长安东尼奥·古特雷斯2024年警告称"机器自主锁定人类目标是不可逾越的道德红线"(《古特雷斯呼吁管控自主武器》| 军控协会)。本报告全面分析AI在现代战争中的整合,着重其伦理、安全与人道主义负面影响。我们检视当前军事领域AI应用,剖析关键伦理与法律挑战,评估全球稳定与平民风险,回顾近期现实案例(含已验证与推测性技术),汇总专家观点并提出政策建议。
核心目标在于批判性评估:若放任AI驱动战争的发展,将如何侵蚀问责机制、人权与国际和平——并规划减轻此类伤害的路径。让我们深入探讨!
现代军队正通过多种AI应用提升作战效能。战争中的AI技术涵盖自主武器系统、决策支持算法、监视侦察平台与网络战工具。下文概述AI在军事领域的主要用途及其对武装力量的优势:
自主武器系统(无人机与机器人):最显著的AI应用当属自主无人机与机器人武器。此类系统无需直接人工操控即可导航、识别目标并实施打击。例如土耳其制造的Kargu-2自杀式无人机可通过计算机视觉与机器学习识别目标,甚至以集群模式协同攻击(《联合国报告披露利比亚自主无人机袭击事件》| NPR)。此类武器使军队具备超视距快速打击能力,同时降低士兵风险。自主武器摆脱持续无线电控制链路依赖,减少延迟与干扰脆弱性(《禁止"杀手机器人":为何当前是管控自主武器系统的关键窗口》| 军控协会),还能以超人类速度应对威胁(如自动防御系统),并进入人类无法涉足的高危环境。
AI驱动决策支持系统:AI正协助指挥官加速信息处理与决策制定。先进算法可融合卫星、无人机、传感器与情报数据,提供实时战场态势感知。美国国防部测试的AI指挥控制工具整合传感器数据实现实时决策,加速战场"决策节奏"(《人工智能如何影响战场行动?》| Lawfare)。Anduril与Palantir等公司开发的软件平台(如Lattice系统)利用机器学习分析海量数据并推荐行动方案。在乌克兰战争中,此类AI分析使冲突演变为"AI战争实验室",助力乌军实时解析无人机画面与卫星图像定位敌军(《人工智能如何影响战场行动?》| Lawfare)。理论上,AI增强可使决策速度与OODA循环(观察-调整-决策-行动)超越对手,获取战略优势(《战争算法:武装冲突中人工智能决策应用》)。
监视与目标识别:AI驱动的监视系统以最小人工介入监控并识别潜在威胁。机器学习算法可筛查侦察数据(如无人机视频或监控画面),标记目标、识别人脸或探测敌方活动模式。军方使用面部识别与模式分析锁定叛乱分子或高价值目标,并借助预测分析预判敌军动向。例如以军据称在加沙使用AI工具评估平民存在以区分战斗人员(《加沙:以军数字工具加剧平民伤害风险》| 人权观察)。其优势在于提升目标识别精度并减轻分析员认知负荷——AI可24小时监控多传感器数据,自主巡逻无人机能实时检测入侵或武器并告警。城市战中,AI系统可快速整合多源数据绘制敌军位置(速度远超传统情报手段)。
网络战与信息战:AI在网络攻防与宣传战中发挥倍增效应。AI算法能以超人类速度扫描网络漏洞或发起复杂攻击,进攻型网络工具可模仿自动化黑客行为动态适应防御。防御端AI系统实时监测流量以拦截入侵。AI生成内容(如深度伪造)已成为信息战工具——宣传战可利用伪造音视频扰乱敌方士气。俄乌冲突中,专家警告未来AI或可模仿人声、截获通信并操纵敌方决策,使传统无线电安全防护"失效"(《人工智能如何影响战场行动?》| Lawfare)。此类能力可制造敌方混乱并降低其决策速度,AI驱动的虚假信息还能针对平民削弱社会信任。简言之,AI的自适应特性使其在网络与信息域具备颠覆性攻防能力。
后勤、训练与其他用途:除前线作战外,AI还应用于后勤优化、模拟训练等领域。机器学习模型预测装备故障并优化维护(减少关键资产停机时间),AI管理供应链确保物资精准投送。训练与兵棋推演中,AI模拟器为士兵提供高拟真对抗环境。例如AI飞行员在模拟空战中击败人类,美军已试飞AI操控战机(《人工智能如何影响战场行动?》| Lawfare)。此类应用虽不显性,却提升军队效率与战备水平,使军事行动全流程(从规划到执行)更敏捷高效。
需注意,AI应用虽带来速度、精度与战力倍增等战术优势,亦引发重大战略与伦理挑战。后续章节将详述:AI的自主性、速度与数据驱动特性虽增强作战效能,却可能导致人类失控、结果不可预测及道德风险。
AI在战争中的部署引发深刻的伦理困境,核心在于是否应授权机器做出生死决策。伦理学家、人权组织乃至军事人员已提出系列道德与法律关切,关键伦理问题包括人类问责缺失、杀戮行为去人性化及自主系统在缺乏人类判断下做出致命决策的可能性。以下详述这些关切:
责任缺失("问责缺口"):AI操控武器使伤害责任归属复杂化。传统战争中,士兵或指挥官需对打击决策负责;自主武器则模糊了问责链条。若AI无人机误杀平民,责任应由谁承担?机器无法受审,相关人员(程序员、制造商、指挥官)可能相互推诿,形成学者所称的"问责缺口"(《禁止"杀手机器人":为何当前是管控自主武器系统的关键窗口》| 军控协会)。国际人道法与战争法以人类意图与判断为前提,缺乏起诉传感器或算法的条款。正如分析指出,AI武器将"替代各类人类专家,制造问责缺口——因机器无法接受军事法庭审判"(同前)。此缺口不仅阻碍受害者伸张正义,还可能削弱法律遵从度(若无人担责,暴行威慑力下降)。从伦理角度,部署设计上无法追责的致命武力存在根本性缺陷。人权观察主张"担责者须为人而非机器",若丧失有效人类控制,无人能真正对结果负责(《自主武器问题》— 禁止杀手机器人)。
战争的数字化去人性化:AI系统不承认人类生命的尊严与价值——其将人视为数据点、模式或"目标"。算法杀戮本质上使战争行为丧失人性。将杀戮决策委派机器意味着剥离人类同理心、良知与判断。禁止杀手机器人运动警告,允许机器决定杀戮是"数字化去人性化的终极形态"(同前)。机器人无法理解投降、痛苦或身份细微差异,其将人类简化为代码与传感器输入。此现象引发道德忧虑:一旦个体被算法标记,即可遭自主武器即刻处决,无需人类审慎考量。该方式将人类目标物化,损及战争中应存续的人性。哲学家指出,将杀戮决策权授予无感知机器是对人类尊严的严重冒犯(属本质之恶,无关结果)(同前)。即便AI完美运行,自动化杀戮行为本身可能违背基本伦理原则。教皇方济各、AI伦理学家与公民社会领袖均强调,机器无权剥夺人类生命——此权限须始终作为与道德能动性绑定的人类特权。
有效人类控制缺失:密切相关的担忧是战争可能彻底脱离人类监管。AI赋能系统(尤其是致命自主武器)挑战人类须对武力使用保持意识决策的要求。若军队发射自主无人机后放任不管,实则在行动启动后向算法让渡控制权。此类控制缺失极其危险,因机器缺乏人类直觉判断。作战涉及复杂伦理抉择——区分战斗人员与平民、评估攻击的平民伤害是否与军事收益成比例、或根据态势变化终止打击。此类决策需情境理解与价值推理能力(当前AI无法复现)(同前)。如红十字国际委员会指出,"机器无法做出复杂伦理选择;其无法理解人类生命的价值"(同前)。剥夺人类控制不仅导致违法风险,亦削弱道德责任。仅启动杀手机器人的指挥官未在武力应用时行使伦理判断。此种疏离可能催生"杀戮过于轻易"的心态——算法战争或助长暴力(因人类操作者的心理负担减轻)。伦理学家强调须在攻击关键阶段保持"有效人类控制",确保人类道德主体始终参与(并负责)致命决策(同前)。
算法偏见与目标识别错误:AI系统继承训练数据与设计中的偏见。军事语境下,自主系统可能以危险方式歧视或误判。例如,面部识别算法存在种族偏见(对特定族裔误识率更高)(《战争算法:武装冲突中人工智能决策应用》)。若此类算法用于判定占领区"敌对分子",可能错误锁定少数族裔或边缘群体(实现偏见自动化)。禁止杀手机器人联盟指出,对人类使用自主瞄准"必然强化偏见或压迫结构"(因社会偏见被植入数据与代码)(同前)。即便忽略偏见,AI传感器仍可能被欺骗或出错:对手可通过对抗攻击(细微改动)诱使AI将校车识别为军车(同前)。或AI在未经训练的情境下故障(如将逃跑平民误判为撤退士兵)。据称利比亚的Kargu-2无人机曾自主攻击撤退士兵(《利比亚是否使用飞行杀手机器人?极有可能》— 原子科学家公报);若其错误锁定投降者或平民车辆,后果不堪设想。与人类不同,机器一旦算法判定目标,不会质疑错误识别。此类判断缺失可能导致非故意暴行。过度依赖有缺陷的AI分类可能危及区分原则(平民与战斗人员)。简言之,AI并非无误——其在战争中犯错将导致致命后果。
总结:限制战争中AI无节制应用的伦理理据极具说服力。战争不可沦为缺乏道德考量的技术"数字游戏"。若由算法决定生死,人类将在过程中丧失人性。此类关切已引发对自主致命系统的严格限制或禁止呼声。正如专家团体所言,"剥夺人类生命的决策权绝不可委派机器"(同前)。即便技术演进,在冲突中维护人类尊严与问责仍是核心伦理要务。
除伦理问题外,AI在军事领域的整合对战术、战役与战略层级构成重大安全风险。分析人士警告,AI赋能战争可能增加事故与意外升级概率,触发破坏性军备竞赛并向恶意行为体扩散——均威胁全球稳定。下文探讨这些安全关切:
意外升级与"闪电战"情景:最严峻风险在于自主系统可能以不可预测方式行动,引发人类未曾意图的冲突。若双方部署AI驱动武器或决策系统,其互动可能形成超越人类控制的敌对循环加速机制。经典类比为股市"闪崩"现象(算法交易互动引发不可预见的螺旋式下跌)(《禁止"杀手机器人":为何当前是管控自主武器系统的关键窗口》| 军控协会)。军事场景中,设想双方自主无人机在遭袭时自动反击:微小事件或可在数秒内引发攻击链式反应,导致全面交战(领导人无干预机会)。AI系统的微秒级响应速度消除了人类审慎决策的缓冲期(常阻止意外升级)。2016年军控分析警告自主武器集群互动可能产生"意外后果",且"危机失控升级为战争完全可能"(同前)。即便无对手AI,单一国家的自主武器误判威胁(如AI防空系统将民航客机识别为敌对导弹)并自主开火,将导致重大伤亡并引发报复。若机器错误锁定目标,"友军误击"事件亦可能增加(测试中自主原型武器曾误击己方单位)(同前)。核心在于AI的不可预测性与光速决策使战争爆发更不可控——误判或AI故障可在人类化解局势前将局部摩擦升级为全面战争。
战略不稳定与AI军备竞赛:AI武器化常被类比为新型军备竞赛(潜在破坏性与冷战核竞赛相当)(《人工智能如何影响战场行动?》| Lawfare)。主要大国(美、中、俄等)因惧怕落后受制,均重金投入军事AI研发。此类竞争可能导致安全标准逐底竞赛:各国或仓促部署未充分理解风险的系统(仅因认定对手在同等行动)。普京曾宣称"AI主导者将统治世界",凸显战略优势与AI霸权在领导人认知中的绑定(《普京:AI主导者将统治世界》— Axios)。此思维助长AI军事化进程。但此类军备竞赛或侵蚀全球稳定:若一国AI能威胁他国核力量或指挥网络(如自主无人机集群瞄准导弹发射井或领导人掩体),可能诱发先发制人打击或触发临战状态。如联合国报告指出,此类武器"引发新兴军备竞赛风险,加剧既有冲突与人道危机、误判及降低升级门槛"(《杀手机器人:联合国决议应推动条约谈判》| 人权观察)。换言之,当多国拥有自主武器时,危机升级将更频更快。若AI能赋予压倒性优势,力量平衡将陷入不确定——不确定性本身即具破坏性(因其催生最坏假设)。各方迫于压力加速部署AI并更多委权算法(匹配预判的敌方决策速度),进一步压缩决策时间并增加错误概率。与核武器不同(通过相互毁灭恐惧达成威慑平衡),AI武器或鼓励使用而非克制(因其降低使用者自身部队风险,从而降低动武门槛)。切实担忧在于:若无干预,AI军备竞赛或使战争更易爆发而非减少。
非国家行为体扩散:历史上先进致命技术主要由国家掌控。但AI属军民两用、软件驱动的商业技术——更易被非国家行为体(恐怖分子、叛乱团体、犯罪组织)获取。基础AI武器的准入门槛远低于核生化武器。例如,恐怖组织已利用市售无人机改装炸弹。下一步逻辑演进即添加自主性:专家警告"非国家行为体现可部署自制无人机自主飞向目标"(实为简易巡航导弹),并可能很快使用自主武器软件实施无人操控攻击(《非国家行为体可利用民用产品制造致命自主武器》| 世界经济论坛)。商用AI导航或人脸识别软件可被转用于致命用途——此类代码必然泄露或扩散。世界经济论坛分析指出,一旦自主瞄准软件面世,"全球扩散不可避免。无法实际阻止代码传播"(同前)。这意味着恶意行为体或可通过组合消费级无人机与AI目标识别(经社交媒体人脸数据训练)制造"杀手机器人"。小型团体可用装载炸药的自主无人机群实施暗杀或恐袭(规避传统防御)。与严格管控的核材料不同,AI武器组件(无人机、芯片、代码)广泛流通。AI武器向非国家行为体扩散将成为安全机构的噩梦——支持高伤亡、低风险且难溯源的恐怖袭击。分析人士指出,足够数量微型自主无人机可实现大规模杀伤("百万此类设备可装入货柜"致数万人死亡)(同前)。此恐怖前景模糊常规与大规模杀伤性恐怖主义的界限。易获取性亦削弱传统军事优势:游击队或列装挑战先进军队的自主武器。AI驱动武器脱离国家控制的扩散为全球安全注入动荡因素,使军控复杂化并提升违背国际规范者实施灾难性暴力的概率。
军控与威慑挑战:AI战争化冲击传统威慑与军控理念。威慑(通过报复恐惧阻止敌方行动)依赖可预测性与决心传递。但若决策部分委派算法,对手或无法预测响应或有效威慑预编程AI"代理"。此或弱化威慑的稳定效应。例如对峙中,一方或通常保持克制(预期对方指挥官同理);但若一方的AI设定特定触发自动反击,即便人类对手无意升级仍可能报复(破坏威慑逻辑)。此外,自主武器使攻击溯源困难(无人机打击属自主行为或敌国蓄意行动?)。此模糊性本身加剧升级风险(国家或误判事故或AI失控为蓄意宣战)。军控层面,AI系统难以通过传统条约监控或禁止——软件易隐藏或转用,合规核查复杂。AI发展速度(常超越监管讨论)导致法律框架滞后技术(《AI军事化对全球安全与战争的深远影响》| 联合国大学)。担忧在于我们正进入规范真空期:致命AI技术扩散快于规则共识,危及全球稳定。
总结:尽管军方视AI为获取优势之径,其亦在多层面引发不稳定。若放任自流,战争AI化可能放大战争迷雾、压缩决策时限至崩溃临界,并赋能更多行为体释放武力。此类安全风险凸显需采取主动措施确保AI管理维护或增强国际稳定——该主题将在治理与建议章节进一步探讨。
人工智能驱动战争的到来不仅关乎士兵与国家——其对平民与社会整体影响深远。AI融入冲突可能造成更严重的人道后果:加剧平民伤害、侵蚀公民自由并扩大不平等。本节评估战争AI如何影响平民与社会,聚焦大规模监控、附带伤害与冲突区伤害分布。
大规模监控与隐私侵蚀:军事AI能力常延伸至对平民的监控。政府与军方可用AI监控工具对整座城市或地区实施持续监视。例如,配备计算机视觉的自主无人机可自动追踪城区内人员与车辆,先进面部识别技术可从实时画面中标记目标人物。在冲突区或占领区,此类工具实现前所未有的全方位监控,侵犯隐私并制造恐惧。近期案例来自加沙:以军使用含AI的数字监控技术识别目标。人权观察指出,这些旨在区分武装人员与平民的工具依赖海量数据与不透明算法,引发"严重隐私与个人数据担忧"(《加沙:以军数字工具加剧平民伤害风险》| 人权观察)。军事AI监控不止针对战斗人员,必然波及普通民众(将每个人视为算法审查对象)。此现象可能导致种族或宗教群体画像及异议镇压(借安全之名实施)。无休止的空中AI"天眼"或网络监控算法营造持续监控氛围,压抑日常生活并侵蚀基本权利。平民可能因数据模式被计算机标记为"威胁"(过程无透明度且无申诉渠道)。本质上,AI军事化将战场延伸至平民生活领域——所有人的行动、通讯与生物识别数据皆成分析对象。此类发展大规模破坏隐私与公民自由,尤其当战时监控技术转用于治安或国内安全时,对民主社会构成威胁。
附带伤害与平民伤亡:军事AI支持者宣称精准技术将减少附带伤害。但现有证据未能明确证实此承诺(《战争算法:武装冲突中人工智能决策应用》)。事实上,AI系统可能催生新的故障模式导致平民伤亡。如前所述,图像识别算法可能将平民目标(如人群或车队)误判为敌方(引发错误打击)。当自主武器发生此类错误,后果或为灾难性——AI不会自主终止行动,待人类监管者发现问题时可能为时已晚。加沙案例中,以军使用AI辅助评估建筑内平民数量以降低伤害,但人权观察指出这些工具依赖"缺陷数据与粗略估算",误判平民存在可能导致违反国际人道法的袭击(同前)。人权观察研究员强调,以军AI决策辅助工具"使用不完整数据、错误计算与不适配工具决定加沙生死,可能加剧平民伤害"(同前)。此例凸显过度依赖AI可能导致虚假精确认知。指挥官或过度信任计算机评估("算法显示区域无平民")批准袭击(若依赖传统情报或会中止)。错误发生时往往规模扩大——目标识别软件的一个漏洞可能影响多起攻击。AI算法可能隐性地贬损平民生命价值(若训练数据包含既往视为可接受的附带伤害,AI或内化允许更高平民伤亡的偏见)。在不对称冲突中,拥有AI的强势军队或更随意使用武力(自信技术优势能实现精准打击),但技术疏漏代价由平民承担。与"零伤亡战争"理想相悖,若未严格管控,AI可能导致悲剧性错误与自动化暴行。当决策部分依赖不透明的机器输出时,人道预防原则(采取一切可行措施避免平民伤害)更难贯彻。
冲突区不平等与不对称效应:战争AI的收益与伤害分布不均(常反映并加剧全球不平等)。发达国家与资金充足军队研发尖端AI武器,贫困国家或非国家行为体暂缺此类技术。此差距导致:富裕军队能以更低己方风险投射武力(使用无人机等),而技术劣势方(及其境内平民)承受暴力冲击。例如近期冲突中,西方军队在中东与南亚地区更多使用武装无人机打击(确保士兵远距安全)。承受方社区描述持续监控无人机的恐怖存在感与对抗隐形算法敌人的无助。随着AI赋能远程自主打击,战斗或更多发生于弱势方领土,而发起方本土几无后果。此不对称性使军事干预对侵略者更具政治吸引力(因己方伤亡风险低),可能导致武力更频繁使用。战争负担(死亡、基建损毁、流离失所)不成比例地落在冲突区民众(常属发展中国家)。此外,存在新技术首试于边缘群体的风险。人权倡导者指出"问题性新技术常首试于边缘化社区"(《自主武器问题》— 禁止杀手机器人)——例如面部识别与预测性警务AI多在少数族裔社区部署(监管较弱)。战争中,此现象可能表现为强国在外国冲突或占领区使用半实验性AI武器(当地民众成为未经验证技术的非自愿试验品)。此情景令人不安地映射殖民逻辑——高科技强国视特定地区生命价值更低。结果可能深化全球不平等与怨恨。另一方面,AI武器最终扩散后,或落入残暴政权或叛乱团体之手(用作压迫或恐袭工具),再次重创脆弱社区。战争AI的人道影响不仅关乎即时平民伤亡,更涉及受影响地区的长期社会创伤、动荡与不公。
心理影响与恐惧形态变迁:AI驱动战争或对平民与士兵施加独特心理压力。面对无面孔机器的追猎,民众可能承受难以察觉的自主无人机持续悬顶恐惧,或无法逃脱的算法监控。知晓可能随时遭不可预测机器人攻击,或导致群体性慢性焦虑与创伤。士兵亦可能因对抗机器敌人而心理不适——难以向无人机投降或与算法交涉。去人性化双向作用:被攻击者感觉自身被物化(造成深度心理创伤)。现有研究表明,高强度无人机监控下的社区(即便人工操控)已呈现高压、恐惧与生活紊乱。自主武器或加剧此现象——民众知晓AI决策(无论对错)可能终结生命,且无人直接监督实施怜悯或克制。战争AI的存在还可能疏离侵略国民众与冲突惨状——若仅机器参战,公民或对战争道德重量麻木,削弱对军事暴力的民主制约。综上,战争AI的社会与人道影响广泛深远——不仅威胁人身安全,更侵蚀隐私、公平、心理健康及和平与冲突的社会肌理。
人工智能在军事系统的快速整合已超越管控其使用的法律与规范发展。此监管缺口构成重大挑战:现行国际法未考虑自主决策者,新规则制定努力亦难跟上技术变革与地缘竞争。本节探讨战争AI国际治理现状(含现行法律缺陷、外交论坛辩论及有效监管障碍)。
国际人道法(IHL)及其局限性:国际人道法(战争法)为所有新武器(含AI武器)提供基准法律框架。IHL核心原则包括区分原则(仅可攻击战斗人员,不得针对平民)、比例原则(平民伤害不得超出军事收益)与军事必要性原则。这些原则适用于AI系统(理论上自主武器须能区分平民并遵守比例原则,否则即为非法)。问题在于确保AI遵守IHL极其困难。如前述,当前AI无法可靠做出IHL要求的精细判断(《禁止"杀手机器人":为何当前是管控自主武器系统的关键窗口》| 军控协会)。联合国秘书长2024年报告警告自主武器"可能削弱甚至侵蚀现有法律框架",因其能否全面遵守战争法存疑(《古特雷斯呼吁管控自主武器》| 军控协会)。AI行为的法律责任归属亦不明确(问责缺口问题)。IHL规定指挥官应对战争罪(如无差别攻击)担责,但若直接诱因为算法缺陷,应如何处理?此不确定性或导致法律灰色地带(违法无明确追责),削弱IHL执行。另一局限在于IHL主要规制冲突期间行为,未涉及武器研发或持有阶段。部分专家主张对AI武器等待使用后再监管为时已晚——需前瞻性规则(如禁令或设计标准)预防非法后果。综上,IHL虽仍关键,但无法完全解决战争AI新问题,需新解释或补充协议。
联合国讨论与《特定常规武器公约》(CCW):自2010年代初,各国与公民社会在联合国(尤以《特定常规武器公约》框架)辩论致命自主武器。此前CCW曾管控地雷、致盲激光等。致命自主武器系统政府专家组(GGE)成立以探讨监管可能。但经多年会议,CCW进程几无实质进展(主因大国分歧)。多国(超30国,含奥地利、巴西、巴基斯坦等)与数百AI专家及NGO呼吁预先禁止全自主武器,主张须保持有效人类控制,部分武器自主性不可接受。少数军事强国(美、俄、英、以等)反对具法律约束力禁令,倾向制定非约束性原则或主张现行法已足够(《杀手机器人:联合国决议应推动条约谈判》| 人权观察)。CCW共识决策机制使少数国家可有效阻挠条约。至2021年,僵局挫败感加剧。2024年末联合国大会出现重大转折:166国投票支持决议(79/62)设立CCW外新论坛讨论自主武器(同前)。仅美、俄、以等少数国家反对。决议承认自主武器"对全球安全与稳定的负面影响……含新兴军备竞赛、误判、升级及向非国家行为体扩散风险"(同前),并提及联合国秘书长多次呼吁制定具法律约束力文书(同前)。尽管2024年联大决议未直接禁止任何事物,其反映国际社会管控问题的意愿增强,并启动2025年及后续条约谈判。秘书长古特雷斯敦促各国2026年前达成协议"禁止无人类控制或监督的致命自主武器系统"(同前)。此表明高层认可需新规则。但挑战在于将势头转化为具体条约。外交谈判需弥合支持禁令国与倾向宽松监管国分歧。定义争议亦存(何为"自主武器"?),许可与禁止系统范围待厘清(如部分国家或接受禁止攻击人类的自主系统,但允许攻击导弹或车辆等物体)。制定兼顾人道关切与广泛接受的法律文本将成为未来数年精细任务。
国家政策与规范:国际禁令缺位下,部分国家制定本国军事AI政策(力度各异)。例如美国国防部2023年更新管辖武器系统自主性的3000.09指令,要求自主武器设计须确保指挥官对武力使用保持"适当程度的人类判断"(《AI士兵:人工智能与军事的危险》— 公众公民),并强制严格测试以确保可靠性及战争法合规(同前)。表面看,此系保持人类介入的坚定承诺。但批评者指出该指令保障措施可在特殊情形豁免,且仅约束国防部(不适用中情局等机构)(同前)。此外"适当"人类判断定义模糊——反对者担忧其或允许最低限度监督。英、法、以等国政策更不透明,常泛泛宣称人类担责却无细则。与此同时,部分中等国家与专家推动"有效人类控制"规范原则获普遍认可。此概念要求任何武器须处人类直接控制下(由人类做出关键目标决策),确保每次致命武力使用背后存人类意图(同前)。就该原则达成共识可指导政策与技术发展。治理另一维度涉及私营科技部门参与:众多AI研究者与科技公司制定内部伦理政策(拒绝开发自主杀戮AI)。典型案例为谷歌2018年员工抗议后终止五角大楼AI无人机目标识别合同("专家计划")(同前)。此类行业自我监管可延缓AI军事化,但其属自愿性质且企业/国家间不统一。
验证与执行难题:即便各国谈判达成限制AI武器的新条约,执行仍困难重重。与核军控不同(导弹与弹头具实体且可通过卫星与核查员监控),AI软件无形且具双重用途。如何核查战斗无人机未运行禁用自主目标软件?一国可部署具备自主能力但声称仅受人类监督的系统。验证特定算法缺失或"人在回路"开关存在,需侵入性技术检查或数据共享(军方常以安全为由抵制)。隐蔽研发风险亦存:国家可秘密开发AI武器,仅在冲突时暴露。此等因素使信任与透明至关重要——竞争环境中难以实现。建立信任措施(联合演习或数据交换)或有助益,但尚未针对自主武器开发。虽有制定技术标准或"标识"(标明AI系统自主等级)的讨论,但无共识。此外,AI研究具全球性与开放性,非条约签署方(或非国家行为体)可能无视条约利用技术,引发条约外执行难题。
总结:当前战争AI治理处于动态不稳定状态。国际社会开始承认需新规则(禁止最危险应用的呼声日涨),但监管形式与实施方式仍存重大疑问。未来数年(以联合国设定的2026年为节点)或将决定轨迹:为军事AI设立有效护栏,抑或任其近乎无约束发展。协调国际法与快进技术虽复杂,但无所作为的代价将以无辜生命与全球安全衡量。这使得强健治理努力不仅是法律实践,更是道德与战略要务。
为具体化讨论,我们检视过去五至十年间AI技术融入战争的现实案例与历史节点。这些实例既展现AI作战能力,亦揭示争议与后果,涵盖已验证的实战应用、原型系统及预示未来战争的推测性项目。
利比亚自主无人机袭击事件(2020年):首例疑似AI致命攻击记录中,土耳其制造的Kargu-2无人机在利比亚无人工指令下自主攻击目标。联合国报告称,2020年3月利比亚内战中,Kargu-2巡飞弹药"追踪并远程攻击"撤退的哈夫塔尔阵营士兵(《利比亚是否使用飞行杀手机器人?极有可能》— 原子科学家公报)。Kargu-2为携带炸药的四旋翼无人机,具备自主飞行与目标识别能力,通过机器学习算法分类物体(识别车辆或人员)并俯冲引爆。事件中无人机被编程攻击特定敌方战斗人员类别,对逃亡个体持续追击。尽管联合国未确认致死案例,但若存在,则标志战争史上首次AI自主杀人(《联合国报告披露利比亚自主无人机袭击事件》| NPR)。此事件触发国际社会警报。分析人士指出,被锁定者无法向机器投降或逃脱。事件初始未受广泛关注,却印证"杀手机器人"已非理论威胁。关键质疑包括:无人机是否正确识别目标?若现场有平民怎么办?责任归属(操作者、土耳其制造商或利比亚部队)?研究者扎卡里·卡伦伯恩强调其历史意义:"若此次袭击致人死亡,则成为首例已知AI自主武器杀人案例"(同前)。利比亚事件表明自主武器已成现实威胁,推动联合国与NGO寻求预防措施以避免此类事件常态化。
2020年纳戈尔诺-卡拉巴赫战争:2020年末阿塞拜疆与亚美尼亚的纳卡冲突展示半自主武器(尤以巡飞弹药/"自杀式无人机")的战场影响。阿塞拜疆使用以色列产"哈洛普"等无人机(可自主追踪雷达信号或预设目标)。此类弹药滞空待命,探测目标(如活跃雷达或车队)后俯冲攻击。战争影像显示亚美尼亚坦克与火炮遭无人机突袭摧毁。尽管此类系统通常需人工确认目标,其自主能力(目标搜索与导航)仍显著提升战力。阿塞拜疆的决胜部分归因于无人机技术优势,此战被视为首场"无人机主导战争",成为全球军队的警钟:展示AI赋能武器(即便较初级)如何击败传统部队。但亦引发无差别杀伤担忧——有争议报告称无人机攻击投降士兵或误击民用设施。遭无形无人机攻击的士兵心理创伤深重(强化去人性化伦理问题)。纳卡战争成为军事院校未来战争案例,凸显自主性与AI已成战场优势关键,但代价是战争更趋单边化与残酷。
俄乌战争(2014年至今,2022年全面升级):持续冲突被称为"战争AI实验室"(《人工智能如何影响战场行动?》| Lawfare)。俄乌双方部署各类AI系统(无人机、巡飞弹药及情报数据分析)。乌克兰整合商用技术与AI创新抗敌,借助西方科技公司使用Palantir等AI平台聚合卫星、无人机与电子监听情报,实现《时代》所称"实时目标识别的AI战争实验室"(同前)。此助力乌军以有限资源对俄实施精准打击。自主与半自主无人机广泛使用:乌军甚至志愿者改装AI四旋翼无人机投掷手榴弹或自杀攻击。俄方则部署巡飞弹药并强化电子战干扰乌无人机,推动双方提升自主性(如GPS/无线电失效时自主运作)。至2023年,报告称无人机造成约70%战场伤亡(同前),凸显无人系统普及。AI亦现身宣传与网络战:深度伪造(如2022年流传的泽连斯基投降假视频)与AI生成虚假信息成为信息战部分。乌军总司令扎卢日内称战争陷入类似一战的科技僵局,需无人机与AI系统突破(同前),承认战争正演变为"算法之战",AI整合更优更快方将主导(同前)。俄乌战争既显AI优势(如提升目标情报),亦揭示风险(无人机升级冲突、算法驱动军备竞赛),影响全球政策辩论——战争AI非未来议题,正于高强度冲突中实战应用。
以色列"加沙行动"(2021-2023年)与数字瞄准:以色列作为高科技军事手段先驱,在加沙冲突中引入先进算法瞄准流程。以军据称在2021与2023年使用代号"炼金术士"的AI系统辅助空袭目标识别。2023年冲突中,以军运用至少四种AI/大数据工具:快速评估建筑内平民数量(比例分析)、优化打击时机、基于多源数据区分战斗人员与平民(《加沙:以军数字工具加剧平民伤害风险》| 人权观察)。人权观察2024年调查警示此类方法:AI工具依赖海量监控数据(含手机元数据、无人机画面及疑似面部识别)做出生死建议,但易出错(同前)。某旨在预警平民超限的工具因数据缺陷失效,导致难民营数十平民死亡。以方称打击对象为合法目标(哈马斯武装),但批评者指过度依赖无法精准解析城市战复杂性的算法。此案例揭示悖论:AI本应以更多信息辅助决策,但若数据或算法缺陷则误导决策者加剧平民伤害。加沙案例亦凸显AI应用透明度缺失——人权组织事后才知AI参与,问责机制缺位,并展现在战争中AI如何侵犯隐私:以军将加沙全体平民数据视为战场资源喂饲算法。此行动引发以色列国内对自动化限度的争论,及国际社会对AI瞄准是否符合IHL区分与比例原则的质疑。
美国"专家计划(Project Maven)"(2017-2018年):五角大楼首个利用AI(计算机视觉算法)处理监控无人机海量视频的先锋项目。目标是通过AI软件自动识别伊拉克、叙利亚等地无人机画面中的人员、车辆等目标,减轻分析员负担并加速目标锁定。2017年启动后,"专家计划"在目标识别取得技术成功,但谷歌作为AI开发主要承包商曝光后引发伦理争议。2018年数千谷歌员工抗议参与"战争技术",公司最终迫于压力未续约。此案例标志军事AI伦理议题进入硅谷主流视野,显示公民社会部分群体(科技从业者)对助力自主战争的不安。能力层面,"专家计划"体现五角大楼拥抱AI情报与目标识别的决心——为现今更先进决策支持AI的前奏(同前)。谷歌退出后,美国防部将工作转移至其他公司与联合人工智能中心(现CDAO)。"专家计划"本身未直接致死(仅"回路内"提供建议),但或通过快速标记目标(如武装车队)影响打击决策。该项目及其反弹成为军事AI公私合作需明确政策与伦理准则的典型案例。
武装机器人与AI战斗机原型:多国测试陆海空半自主/自主作战平台。例如俄罗斯2018年在叙利亚试用的"铀-9"无人地面战车(类似坦克的机器人),暴露通信中断与自主故障等技术不成熟问题。空中领域,美海军X-47B无人机2013年实现无人航母起降,展示高阶自主性。近期美空军研发"忠诚僚机"AI无人机(协同有人战机执行任务),2023年披露AI成功驾驶F-16完成试飞(标志自主战机重大进展)。中国聚焦"智能化"战争,投资无人机蜂群与AI潜艇(《战争算法:武装冲突中人工智能决策应用》)。此类系统虽未实战,但其研发预示战争走向。例如无人机蜂群(数十至数百架AI协同小型无人机)或压制传统防御,美中均展示过协调测试。原型引发新问题:自主战斗机在缠斗中瞬间击杀是否可接受?如何确保城市中机器人坦克区分持RPG的战斗人员与持相机的平民?此类试验亦显军方对AI的热情——将领视其为未来大国对抗(如中美冲突)中决定胜负的关键。原型预示近期部署可能,亟需健全治理机制。
案例总结:上述案例揭示AI融入战争的广泛光谱——从实战杀人的自主无人机、高强度战争的算法指挥,到临近部署的原型系统。每个案例均呈现AI的军事潜力(效率、杀伤力、战力倍增)与风险伦理问题的交织。利比亚事件等成为联合国会议中紧急监管的实证,俄乌无人机成功促使曾怀疑的国家承认需遏制无约束军备竞赛(同前)。"专家计划"等案例凸显行业与公众参与军事AI轨迹的重要性。总之,现实例证表明AI战争时代已非理论——其正以真实后果展开,社会与政策制定者须直面应对。
来自多领域的专家(含AI研究者、伦理学家、军事战略家与安全分析师)对战争AI议题发表见解,常表达深切忧虑。其观点从道德哲学到实用军事战略,揭示辩论的广度。下文呈现部分代表性观点:
AI伦理学家与技术领袖:AI研究界大量成员反对开发自主武器。知名科学家如斯图尔特·罗素、已故霍金及企业家马斯克主张预先禁止"杀手机器人"。2015年公开信及后续声明中,他们指出致命自主武器将危险破坏稳定且不道德。霍金与马斯克警告此类武器或沦为恐怖与暴政工具,强调其"无法可靠区分平民与士兵",故应禁止(《利比亚是否使用飞行杀手机器人?极有可能》— 原子科学家公报)。罗素尤为活跃,通过"屠杀机器人"短片等演示微无人机群自主刺杀场景,警示大规模滥用风险。他坚称将杀戮决策委派机器令人憎恶,非人类应追寻之途。此类声音强调人类尊严及算法决断生死逾越的道德界限,常类比化学/生物武器(全球共识禁用之恶)。伦理学家彼得·阿萨罗指出此系维护战争人道原则问题——机器无人性,由其决定致命伤害将瓦解冲突的道德根基。此类专家在"机器人军备控制国际委员会"与"禁止杀手机器人"联盟等运动中具影响力,进而作用于联合国讨论。
军事与国防专家:军方内部观点各异,但许多高层指挥官与防务分析师承认无约束AI的战场风险。例如美国前防长马蒂斯对武装机器人表露不安,强调人类判断的重要性。美军联合人工智能中心领导层谈及信任与伦理对军事AI至关重要——暗示开发者亦知纯效率驱动或适得其反。保罗·沙雷(五角大楼前官员、《无人军团》作者)等军事思想家主张AI可增强安全,但须保留有效人类控制。其著作指出"人在回路"不仅关乎伦理,亦为避免不可预测故障(实为安全阀)(同前)。少数军方声音警示过度监管或损及国家安全(若对手不效仿),主张合理使用AI或比易错士兵减少附带伤害(因机器无怒惧情绪)。但即便支持AI方通常亦不认可无监督全自主致命武力。多数支持中间路线:将AI用于决策支持、监控与防御系统,但不授予最终攻击权限。军事院校对意外升级的担忧显著——如某北约报告指出AI系统互动或致战争意外爆发(同前)。深谙历史教训的军事从业者常援引冷战险情(如1983年苏联误警事件因人类判断化解),忧虑AI在类似情境中不会"眨眼"。
全球安全与政策分析师:国际安全与军控专家提出地缘政治维度。邦妮·多彻蒂(人权观察)与玛丽·韦勒姆(人权观察/禁止杀手机器人)从人道法视角主张亟需新法律文书。韦勒姆2024年末称:"从武力使用中移除人类控制引发根本性关切……当务之急是谈判新条约阻止自动化杀戮未来"(同前)。此观点浓缩裁军NGO的普遍认知——时间紧迫。政策层面,潘基文与古特雷斯等联合国秘书长相继发声。古特雷斯尤为直言,称自主武器"道德败坏且政治不可接受",2021年表示"未经人类介入即有权决断生死的机器政治不可接受、道德败坏,应受国际法禁止"(同前,2024年重申此立场)。奥地利外长沙伦伯格等外交官将当下比作核时代黎明——"这是我们这代人的奥本海默时刻",敦促为时未晚加以约束(《人工智能如何影响战场行动?》| Lawfare)。迈克尔·霍洛维茨与格雷戈里·艾伦等安全学者研究军备竞赛动态,指出尽管大国竞逐军事AI,但均有避免灾难性事故的共同利益(若可建立信任,协议空间存在)。部分专家提议建立信任措施(如AI安全测试信息共享或核武控制不自动化协议)作为第一步。少数异议声音(常关联国防工业)称禁止AI武器不现实,应聚焦用途而非技术本身,主张制定最佳实践(如北约AI战略强调"负责任使用",含可靠性、可管控性与合法性原则)。即便如此,此类框架亦承认严重关切:北约战略要求AI系统可审计且武力决策含"适当人类判断"(呼应美国防部措辞)(同前)。
共识与影响:多数中立专家(除少数技术狂热者外)共识认为:AI将改变战争形态,但须谨慎对待并设明确限制。专家意见普遍倾向完全移除人类控制极度危险,强烈倡导国际规则管理该技术——伦理学家提供道德理据,安全分析师则以实用主义指出无规则将致军备竞赛与不稳定。重要的是,专家警告与建议正渐入政策讨论(体现于联大近期动向及部分军事AI指南纳入伦理原则)。其专业见解与影响力对规划兼顾安全、伦理治理(而非单纯军事效率)的前路至关重要。
面对上述重大伦理、安全与人道风险,亟需行动以缓解战争AI危害。政策制定者、国际组织与技术专家应考虑以下关键建议与倡议,确保AI进步不以全球和平与人类价值为代价:
通过具有法律约束力的国际自主武器条约:国际社会应优先谈判并签署明确规制(部分禁止)特定AI武器系统的条约。最低限度上,条约应禁止缺乏有效人类控制的全自主武器(尤以攻击人类为目标者),正式确立"机器无权杀戮"的伦理底线。条约还应设定积极义务:如要求军用AI须可审计、可预测且受人类监督。积极动向显现:联合国秘书长呼吁2026年前达成自主武器条约(《古特雷斯呼吁管控自主武器》| 军控协会),联大压倒性多数通过推进进程决议(同前)。谈判者应基于共识领域(如人类控制的普遍认可)制定定义,精准覆盖真正自主致命系统,同时不妨碍无害应用(如非武装物流无人机)。条约应解决问责问题(如要求部署国对AI武器行为承担等同于人类行为的责任,填补问责缺口)。尽管普遍遵守或存难度(大国或初期抵制),但获多数支持的强力条约可污名化并遏制自主杀戮系统扩散(类似既往地雷与集束弹药条约效果)。
确立军事AI国际规范与原则:在正式立法之外,国际社会应阐明规制战争AI的清晰规范原则。此类原则可在条约生效前引导国家行为(或作为条约补充)。核心规范应为维持"有效人类控制"于所有致命武力决策,该理念获多国专家支持,强调人类保有目标锁定与交战的最终决定权(AI仅辅助角色)(同前)。其他原则可含:问责(国家须确保人类担责,不可归咎算法)、透明(国家应披露所用AI系统及合规保障措施)、可靠性(武器须严格测试避免故障)、避免过度伤害(AI不得用于设计致过度伤害或不必要痛苦的武器,遵循IHL)。积极进展包括美国等国支持军事领域"负责任AI"指南(强调上述要点)(同前)。此类规范可在全球AI伙伴关系等多边论坛深化,最终形成法典。企业及研究者亦可采纳(如行业规范拒绝参与全自主武器研发,类比生物工程师抵制生物武器)。若获广泛接受,此类原则将塑造行为预期(即便缺乏强制力仍具影响力)。
实施严格国家监管与出口管制:各国无需等待国际协议即可采取国内行动。政府应更新军事学说纳入AI伦理与安全,如国防部发布强制政策(参照美国防部3000.09指令)要求AI受人类监督并设定故障保护技术标准。此类政策应透明化以增强国际信任。此外,国家应通过出口管制阻止危险AI武器扩散。类比导弹与网络工具出口管控,各国(尤AI技术领先者)可协议限制自主武器或关键组件出口。硬件层面可管制高端传感器与军用无人机,软件层面可禁售战斗目标识别AI模型。尽管执行困难,此类措施可延缓恶意政权或非国家行为体获取能力。另一方面,国家可推广防御性或安全增强型AI出口(如反无人机系统或排雷AI)作为规范,表明非所有军事AI均破坏稳定。国内法可明确指挥官不得以"AI错误"逃避责任,须确保系统合规使用。
推动透明与建立信任措施(CBMs):为降低误解与军备竞赛风险,各国应就战争AI实施建立信任措施。包括自愿交换AI军事项目信息(如拥核国声明不自动化核武发射决策),同意观摩或互邀AI系统演习以消除能力与意图误判。军方对话(1.5轨或2轨外交)可增进学说互信(设想"AI热线"供各国快速澄清自主系统事件防升级)。联合AI安全研究(对手国合作开发AI行为验证技术或防故障最佳实践)亦为可行方案。联合国裁军研究所等国际组织可提供中立平台促进CBMs。即便有限透明亦有助缓解最坏假设,彰显各国严肃对待风险。
投资AI安全测试与验证:降低AI风险需确保军用AI尽可能安全可控,故需大力投资多场景行为测试与验证。军方(或引入独立监督)应对AI武器开展严格多条件试验以识别故障模式,开发模拟环境测试自主系统互动(预判导致意外升级的"黑天鹅"事件)。鲁棒性设计至关重要:AI应在不确定时优雅降级或请求人类介入,而非盲目行动。AI安全研究新领域(如可解释AI提升算法透明度、对抗鲁棒性防欺骗攻击)应融入军事AI开发基础。政府可设定高标准(经外部审查认证)防范技术风险(如误识别或黑客致错),甚至暂停部署高风险AI直至达严格可靠性基准(如自主城市作战机器人错误率不超训练有素士兵)。此类技术保障虽非万能,但可与法律措施叠加降低灾难概率。
国际合作防AI武器扩散:鉴于恐怖分子使用蜂群或流氓国家获取自主WMD的灾难前景(同前),各国应主动合作防扩散。可扩展现有军控框架(如更新《瓦森纳协定》纳入AI武器组件),全球情报机构协调监控军火市场并阻断非法交易。重点管控无人机(专家建议强制制造商与分销商"了解客户",防止大宗采购流向民兵或恐袭组织)。能力建设亦重要:协助各国加强边境管控与双用技术走私侦测。非扩散战略或需推动特定AI研究非军事化(如协议禁止开发自主暗杀或种族灭绝AI)。虽核查困难,但规范确立可施道德压力,违约可施制裁。全球通过条约合作限制核生化武器扩散的经验可借鉴于新兴AI武器。
伦理AI开发与跨部门协作:AI开发者与利益相关方(政府、企业、高校、实验室)须参与解决方案。尖端AI多源自民用领域,故研究界伦理准则至关重要。AI科学家应签署承诺(如"未来生命研究所"誓言)不参与全自主武器研发,高校课程纳入AI双用性伦理模块,科技企业(尤防务承包商)建立严格内部审查(类生物伦理委员会评估AI潜在滥用)。政府可提供责任创新框架(如要求售军AI组件经伦理与合规审查)。公私合作可聚焦增强人类控制的技术(如开发单人多AI监管界面解决规模化控制难题)。伦理学家、法学家、人权专家参与开发过程可确保AI系统内置伦理护栏。多国已成立防务AI伦理咨询委员会(如美国防创新委员会AI伦理原则),此类机制应强化推广。
公众意识与民主监督:公众知情辩论与民主监督对战争AI政策至关重要。政府应在安全许可范围内公开军事AI项目,立法机构设定限制(如议会听证AI武器、要求军方定期报告AI整合及合规情况、立法禁止AI自主致命攻击)。公民社会与媒体应持续监督战争AI影响(如人权观察加沙调查)。提升公众意识可形成国际压力(类比核冻结或禁雷运动),使"杀手机器人"成为污名化术语,警示政客其部署将遭民意抵制。民主国家中,此可制衡不计后果部署AI武器的冲动。
实施挑战与前景:落实上述建议面临大国竞争下的合作难题与创新监管平衡挑战。但失败代价(AI失控冲突或机器暴行)过高,迫使人类必须行动。如同既往应对颠覆性武器,全球须共同制定规则,在技术重塑战争形态时维系控制、伦理与安全底线。
人工智能将从根本上重塑现代战争,赋予军队前所未有的能力。自主无人机、智能监控与算法决策系统已非科幻,而是当下战场的活跃要素。此类技术虽承诺更高效军事行动,但正如本报告所批判性审视的,其伴随的深远负面影响亟需关注。杀戮行为中人类问责与道德能动性的丧失、意外升级与破坏性军备竞赛风险、灾难性滥用可能,均表明AI融入武器与指挥系统是一把双刃剑。近年经验(从利比亚自主打击到乌克兰无人机群)警示未来战争或日益脱离人类掌控,陷入我们亲手缔造的算法之手。
若要避免最坏结果,主动预防性措施至关重要。这意味着明确限制AI的作战角色,并重申人类必须保有武力使用控制权的基本原则。这也意味着以技术研发同等速度投入外交与国际法建设。世界正处类似核时代黎明期的十字路口——此刻抉择将影响未来数十年。核领域经验中,人类成功建立条约与规范避免末日。致命AI带来同等考验:驾驭其安全效益的同时,约束其引发无差别或意外伤害的能力。
本报告的批判立场不意味着AI在安全领域无立足之地或天生邪恶,而是强调引导其应用的人类能动性至关重要。所揭示的负面后果并非必然,其取决于政策制定者、工程师与社会对许可与禁止事项的决策。通过审慎治理、透明协作,此类危险或可缓解。国际动力正缓慢积聚——条约呼吁日增、人类监督共识广泛,皆为积极信号,但须转化为具体行动。
AI融入战争常被标榜为军事事务革命。但若无伦理与治理的同步革新,其亦可能成为人类苦难与动荡的革命。成功衡量标准非武器的先进或自主程度,而在于能否在智能机器时代维系和平、安全与人性尊严。当前重任落于政策制定者之肩——需以潜力与风险的证据为武装,确保人类掌控自身命运,技术服务于集体安全而非侵蚀之。此乃艰巨挑战,但关乎子孙后代的生命与原则,我们必须应对。
参考来源:Adnan Masood