人工智能正日益融入军事系统,这一事实已改变现代战争形态,并重塑了作战方法、战术及伦理视角。本文聚焦人工智能在自动化战争中的应用,特别关注以色列-加沙战争案例。研究审视以色列使用的基于人工智能技术——如自主无人机、预测性瞄准软件和算法监视系统——如何颠覆性提升作战与情报活动效率。该案例为人工智能军事化全球化及其对国际安全、人道法和伦理的影响提供了深刻洞见。如问题陈述所示,当前缺乏可规范致命行动中人工智能应用(尤其在加沙等平民聚居区)的完善法律框架与问责机制。文献综述总结了学术界对人工智能双重性的观点:既是战略优势又是人道主义威胁。探讨了人工智能如何提升精度、速度与态势感知能力,同时带来透明度缺失、算法偏见和伦理问责等新挑战。综述还指出,人工智能辅助系统或可降低士兵作战风险,但若缺乏有意义的人类控制,可能对平民构成危害。本研究采用定性分析方法,关键利用政策报告、人权组织资料及同行评审学术出版物等二手数据,考察人工智能在战争中应用的伦理、法律与作战维度。结果表明,尽管人工智能提升了以色列军事情报与瞄准能力,但也加剧了问责性、相称性原则及人权侵害问题。结论强调需建立国际法律工具、伦理准则与管控机制以规范军事人工智能应用。政策建议要求实现透明度、实质性人类干预与国际合作,确保人工智能技术应用符合人道主义与全球和平理念。

在具体作战层面,卡伦伯恩(2023)指出,当代战争中人工智能与机器学习的应用趋势正改变作战格局,在提升战争速度、精度与效率的同时,减少人类参与及战场风险暴露。以色列与加沙的冲突已成为2017-2018年间人工智能实战应用最显著案例。2023年10月敌对行动升级后,据报道以色列国防军大幅增加部署基于人工智能的系统以探测、追踪和攻击潜在目标(格罗斯,2024)。据悉这些人工智能平台包括“薰衣草”、“福音”(Habsora)和“爸爸在哪”等系统,它们通过分析数字通信、卫星图像、电话记录和社交媒体等海量数据集,识别与武装团体关联的个人或地点(伯特兰,2024)。

传统上以色列依赖人工情报(HUMINT)与手动验证执行瞄准任务。而人工智能的引入使该过程急剧加速:相较人工智能问世前每年仅能识别数十个目标,如今单日即可生成数百甚至数千个目标(罗斯,2024)。据报道仅“薰衣草”系统就能精确定位加沙地带约3.7万名疑似与哈马斯或其他武装团体有关联的人员(勒克莱尔,2024)。此类技术进步既证实人工智能在军事作战中的革命性潜力,也暴露出将生死决策权交予算法所引发的伦理与人道主义问题。

人工智能在冲突中的应用不仅限于数据分析。以人工智能驱动的无人机、计算机视觉瞄准系统和自主载具已被用于侦察、隧道导航与精确打击。例如,以军部队使用基于人工智能的光学瞄准系统与无人机拦截器提升作战效率并降低暴露风险(沙维特,2024)。这些发展凸显人工智能在战争决策与实施过程中日益重要的地位。

然而,此类技术进步的后果已在全球引发争议。国际观察员、人权组织与人道机构谴责以色列在加沙冲突中使用人工智能系统,认为其可能违反国际人道法核心原则。人权观察组织(2024)指出,缺乏有效人类控制的人工智能瞄准系统可能违背区分(战斗员与平民)与相称性(攻击不应超过预期军事利益)等国际人道法基本原则。

联合国(2024)警告称,基于概率数据模型而非已验证人工情报的生物武器开发、自主无人机和决策支持算法可能导致更多平民伤亡。同样,国际特赦组织(2024)警示,作战中的人工智能系统具有不透明性,由于算法决策难以审计,问责机制难以实现。

自动化战争还引发深层伦理困境。当算法承担目标探测与分类任务时,道德责任被模糊化。沙基(2023)强调,即使最先进的人工智能系统也缺乏道德判断力,无法理解生命价值或战斗伦理的正当性。这种疏离感迫使我们反思:将生死决策权交由机器是否具有道德正当性。

从战略角度看,人工智能通过消除人为失误、提升作战速度以及减少士兵在危险战斗区域暴露的必要性来增强军事效能(Payne,2023)。然而,正是这些优势带来了新的风险。由于人工智能系统能比人类更快处理信息并作出反应,它们可能加速冲突节奏,甚至超越外交干预或人道主义斡旋的速度。在加沙等动荡环境中,当涉及大规模群体且缺乏核查与调整时间时,这种速度可能导致短期内出现大规模破坏。

人工智能在自动化战争中的应用还存在其他地缘政治担忧,尤其在以色列与加沙案例中。以色列、美国等技术强国拥有研发部署人工智能武器系统的能力,而技术落后国家面临弱势。这种不对称性可能引发新型军备竞赛——不再基于核武器,而是基于算法与数据(Kallenborn,2023)。

因此,尽管人工智能在军事领域应用存在提升效率与精度的机遇,但以色列-加沙冲突中的实践表明,缺乏伦理、法律与监管约束时其风险凸显。战争中算法决策的后果影响深远,不仅涉及军事结果,更关乎平民安全、国际法及未来战争规范的确立。本文旨在审视人工智能在以色列-加沙冲突中的具体应用、其运作机制与人道影响,以及自动化战争对现代冲突的法律与伦理启示。人工智能在战争中日益广泛的应用(尤其体现于以加冲突)是复杂且充满挑战的议题。尽管人工智能技术可提供更高精度、速度与战略优势,但其在军事行动中的使用引发了对问责制、合法性与人道主义的严重质疑。

核心问题在于人工智能系统可能在缺乏充分人类控制的情况下作出或影响致命决策。尽管以色列军方声称保持“人在回路”机制,多项报告指出人类对人工智能瞄准流程的核查作用已被大幅削弱。Gross(2024)报道显示,以军使用人工智能辅助目标识别系统降低了人工质控层级,实质上允许算法主导打击授权。这种转变引发伦理与实践悖论:当人工智能程序出错时,问责对象应是程序员、指挥官还是机器本身?

其次,人工智能算法依赖大数据与概率推理,而非人类判断。此类系统能通过分析通信与行为数据预测潜在威胁,但其预测能力存在不确定性。研究表明,基于偏见或不完整数据训练的人工智能算法通常产生错误结果,在加沙等高密度城区尤为显著(Buchanan and Keating,2023)。这导致误判风险加剧——即平民被错误识别为战斗人员。加沙地带的高人口密度意味着即使较低的错误率也会导致大量平民伤亡。

第三,人工智能作战的速度与规模构成新的人道主义威胁。自动化系统可在数分钟内生成并执行数千个打击目标。虽然提升军事响应能力,这种效率危及“相称性原则”的实施——该原则需人类判断权衡平民伤害与军事收益。在以加冲突中,人工智能系统据称每日可识别数百个目标,被观察者称为“工业化规模战争”(Roth,2024)。这种作战节奏的高效性使遵守国际人道法更为复杂。

该议题另一关键维度是问责制与透明度。人工智能系统运作基于复杂算法,常出现连开发者都无法解释的“黑箱”问题。这种不透明性阻碍冲突后调查与问责机制运行。若人工智能系统参与非法攻击,几乎无法追溯导致事件的具体决策链条。正如Payne(2023)指出,人工智能决策缺乏透明度侵蚀了国际人道与人权法根基的问责理念。更甚者,人工智能在战争中的应用可能诱导民众将暴力归因于算法故障而非国际法违反。当基于人工智能的瞄准被视为数据驱动的客观过程时,存在将人类决策者道德责任转移至机器的风险。这种对恶行的常态化削弱战争道德性,稀释武力使用的道德约束。

最后,人工智能在加沙的应用对民众造成灾难性影响。据报道,人工智能辅助瞄准导致民用基础设施(如医院、学校、居民楼)摧毁与大量平民死亡(Human Rights Watch,2024)。缺乏充分人工裁量权的人工智能系统使用加剧了非战斗人员的困境,并对城市环境下的战争未来提出严峻质疑。

本质上,本文探讨的核心问题是:正如以色列-加沙冲突所呈现,人工智能在战争中的应用对军事伦理、合法性与人类责任规范构成挑战。它营造了生死决策受算法支配甚至决定的境况,而这些算法的运作既不透明又缺乏有效监管。因此,本文试图厘清人工智能在以加冲突中自动化战争的应用程度、其人道主义后果,以及现有法律伦理框架是否足以约束其应用。

人工智能与自动化战争的概念化

人工智能(AI)被定义为能够处理传统上由人类智能完成的工作任务的计算机系统,例如感知、推理、学习和决策(Russell and Norvig, 2021)。在军事领域,人工智能可用于分析复杂数据、识别模式,并就作战行动提供建议甚至独立决策(Payne, 2023)。人工智能在战场上的应用已从数据处理和后勤保障层面,发展到具备完全自主性,即人工智能系统能够识别并交战目标。

自主战争,亦称自动化战争,是指武器系统与人工智能相结合,能够在极少或无需人工控制的情况下执行行动(Kollenborn, 2023)。此类系统包括无人航空器(UAV)、自动化坦克系统、自动化导弹防御系统以及基于人工智能的决策支持系统。Cummings(2023)指出,基于人工智能的战争提高了行动的速度、精度和效率,但同时也带来了伦理、法律和战略威胁。

文献定义了人工智能作战系统的三个广泛自主级别:(1)“人在回路”,即行动执行前必须有人工干预;(2)“人在环上”,即系统在人工监督下独立行动;(3)“人在环外”,即无人干预,系统完全自主行动(Scharre, 2018)。正如Sharkey(2023)所指出的,问题在于自主性越高,人类的道德能动性就越低,且在发生错误或造成平民伤亡时的问责制变得越复杂。

人工智能在军事行动中的发展

人工智能在军事工业的发展史可追溯至20世纪中期,当时计算模型最初应用于导弹控制和侦察(Singer, 2019)。然而,当前的人工智能应用始于2000年代初期,以无人系统(如美国在阿富汗和伊拉克使用的“捕食者”无人机)为标志。到2020年,人工智能已成为全球发达国家军队在决策、后勤、监视和预测性情报领域的新核心(Boulanin and Verbruggen, 2022)。

以色列尤其已成为人工智能相关战争的早期采用者。以色列国防军(IDF)投入巨资开发和集成人工智能技术到作战部队的各个部门,包括情报与监视部门以及空袭协调部门。在2021年加沙战争中,以色列公开承认在军事行动中使用人工智能,称其为“首场人工智能战争”(Gross, 2022)。这一声明凸显了向研究人员所称的“算法战”的转变——一种通过数据驱动技术使决策过程日益自动化的战争形式(Leclerc, 2024)。

Buchanan和Keating(2023)强调,人工智能使军队能够实时处理大量传感器、卫星和社交媒体数据,并提供有关敌方活动及潜在威胁的主动信息。然而,他们警告说,此类预测能力本质上是概率性的,尤其当基于不完整或有偏见的数据训练时,很可能存在偏差。

以色列-加沙战争及人工智能在其中扮演的角色

以色列-加沙战争本身作为一个案例研究至关重要,因为它展示了人工智能在现代战争中的实际应用。在2023年10月7日哈马斯发动袭击后,以色列实施了大规模报复性打击,使用一套人工智能技术来增强目标定位和作战决策(Gross, 2024)。这些努力显然集中于如“薰衣草”、“福音”(Habsora)和“爸爸在哪?”等系统(Roth, 2024)。

以“薰衣草”系统为例,它采用机器学习分析通信模式、电话元数据和移动数据,以识别属于武装团体成员的个人(Bertrand, 2024)。同样,“福音”可作为打击管理工具,使指挥官能够基于人工智能生成的情报来优先排序和批准空袭。人权观察组织(2024)认为,这些系统极大地增加了每日识别的目标数量(范围从数十到数百个),从而加快了作战节奏。

然而,人工智能在提高效率的同时,也引发了准确性和控制力的问题。据联合国(2024年)报告,在加沙基于人工智能的目标定位导致了民用基础设施(如住宅楼、医院和学校)的大规模破坏。批评者指出,使用算法会减少人类控制,可能违反国际人道法(IHL)所规定的区分原则和相称性原则。正如Payne(2023)所指出的,即使是微小的算法错误,当应用于大规模动能行动时,也可能导致灾难性后果。

基于计算机视觉的目标识别系统和用于执行监视与打击任务的自主无人机也是加沙战争中人工智能作战的一部分。尽管这些系统本应有助于减少士兵面临的危险,但它们实际上扩大了战场范围,使得作战几乎可以不间断进行,缺乏休整与反思(Cummings, 2023)。因此,这场战争既展示了战争自动化的潜力,也揭示了其人道主义危险。

人工智能的未来与战争规制

在全球学者和政策制定者中,规制战争中人工智能的呼声日益高涨。有支持者主张完全禁止完全自主武器,将其与化学和生物武器同等对待(Lin, 2020)。另一些人则提出折中方案——通过“有意义的人类控制”原则来保留人类控制(Scharre, 2018)。规制问题不仅涉及法律问题,也涉及哲学问题。根据Payne(2023)的观点,人工智能注定会改变战争伦理,因为它确保决策是基于数据优化而非道德合理性。对此,Sharkey(2023)和Cummings(2023)等研究人员主张在人工智能构建中引入伦理限制,使系统不与人道主义价值观相悖。

以色列-加沙冲突的教训可应用于全球治理。人工智能的广泛使用证明,有必要就冲突地区使用人工智能制定明确、具有约束力的法规。联合国(2024年)指出,除非受到规制,否则人工智能可能助长人道主义危机、破坏问责制并破坏国际和平。

成为VIP会员查看完整内容
5

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
生成式人工智能在交通规划中的应用:综述
专知会员服务
16+阅读 · 3月15日
俄乌战争信息操纵中的网络攻击策略分析
专知会员服务
17+阅读 · 3月15日
人工智能技术在军事领域的应用思考
专知
44+阅读 · 2022年6月11日
基于深度学习的数据融合方法研究综述
专知
35+阅读 · 2020年12月10日
【综述】多智能体强化学习算法理论研究
深度强化学习实验室
15+阅读 · 2020年9月9日
模型攻击:鲁棒性联邦学习研究的最新进展
机器之心
35+阅读 · 2020年6月3日
人工智能在教育领域的应用探析
MOOC
14+阅读 · 2019年3月16日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
A Survey of Large Language Models
Arxiv
489+阅读 · 2023年3月31日
Arxiv
81+阅读 · 2023年3月26日
Arxiv
177+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员