人工智能技术正在重新定义现代战争。这些冲突加速了人工智能驱动的军事能力的发展,并凸显了该领域在监管方面存在的巨大差距。与此同时,尽管人们一直担心人工智能的不可预测性和道德影响,但人工智能与军事应用的快速融合凸显了它对各国军队的吸引力。
这种态势推动了一场竞争激烈、利益丰厚、价值数十亿美元的人工智能军备竞赛,吸引了全球科技巨头和世界各国的兴趣。由人工智能支持的自主武器曾经是实验性的,现在正在积极部署,最初的作用是协助瞄准和提供后勤支持,然后迅速发展。
本文将深入探讨自主武器的概念,探讨其对战场的影响,以及人工智能的进步如何重塑现代战争。
自主武器系统是专为独立操作和决策而设计的尖端军事技术。这些系统以复杂的学习算法为动力,可以在没有持续人为监督的情况下选择和攻击目标,标志着现代战争的重大进步。
这些系统可对战场上的动态情况做出迅速反应,通过最大限度地降低人员风险和提高作战效率来增强军事能力。
然而,它们的自主性也带来了复杂的伦理问题。主要问题包括:需要有明确的问责结构,确保遵守国际人道法,以及降低冲突环境中意外后果的风险。
尽管具有潜力,但利益相关者和学者对人工智能自主武器的确切定义仍存在很大争议。
与冷战时期的半自动地面环境(SAGE)等系统相比,人工智能在国防领域已经有了长足的发展,尤其是在机器视觉方面。这种发展使自主系统能够独立识别地形和目标,减少对卫星通信的依赖,提高作战效率。
最近,以色列和乌克兰等国已有效利用人工智能加强其军事战略。在加沙等冲突地区,以色列利用人工智能提出实时目标选择建议,提高了精确度,最大限度地减少了附带损害。与此同时,乌克兰利用人工智能软件抵御俄罗斯的入侵。
美国中央司令部首席技术官斯凯勒-摩尔(Schuyler Moore)强调了人工智能驱动的计算机视觉对军事行动的影响,即增强威胁识别能力。最近的成功案例包括在也门精确瞄准并消除火箭发射器和红海水面舰艇等威胁,显示了人工智能在防御和进攻场景中的有效性。
然而,在技术进步的同时,人工智能的自主性也带来了与问责制、遵守国际人道法以及在冲突地区可能产生意外后果有关的挑战。
人工智能武器是指结合人工智能的先进军事技术,可在战斗场景中自主或半自主地执行传统上由人类执行的任务。这些武器利用人工智能算法提高作战效率、决策能力和战场精确瞄准。
近年来,人工智能武器有了长足的发展,利用机器学习和计算机视觉来识别和攻击目标,在复杂的环境中航行,并适应不断变化的作战条件。
人们对融合人类和机器智能的作战工具的需求日益增长,公司和政府机构因此获得了大量资金。这些实体承诺将推进战争--在战场上提供更智能、更具成本效益和更快的能力。
虽然无人机历来具有不同程度的自主性,但目前的进步表明,人工智能驱动的技术具有前所未有的潜力。
例如,以色列国防公司埃尔比特系统公司(Elbit Systems)最近推出了一种基于人工智能的无人机巡航弹药。这一创新系统的市场定位是高机动性和多功能性,专门为短程城市作战而设计。
其突出特点之一是能够自主侦察和绘制建筑物和兴趣点地图,以识别潜在威胁。该无人机与埃尔比特系统公司的 Legion-X 解决方案(一种用于无人异构蜂群的多域自主网络作战系统)集成后,可以在没有用户持续干预的情况下无缝运行。
埃尔比特系统公司声称,他们的人工智能无人机可以自主识别个人,区分可能构成威胁的武装战斗人员和手无寸铁的平民。这一能力代表了自主瞄准技术的重大进步。
然而,批评者对自主系统在战争中的可靠性和道德影响表示担忧。他们警告说,潜在的错误或错误识别可能导致伤害平民或违反国际人道法。
各国政府越来越多地为推进这些技术分配更多预算,尤其是在国防领域。仅美国军方就在推动 800 多个与人工智能相关的项目,这凸显了人工智能技术在现代国防战略中日益增长的重要性,"Project Maven "就是一个突出的例子。
Maven 项目由五角大楼于 2017 年启动,旨在加速国防部内部人工智能和机器学习(ML)的整合,最初侧重于增强情报能力和支持打击 "伊斯兰国 "武装分子的行动。
10 月 7 日哈马斯袭击以色列,促使美国在加沙的报复性军事行动中部署其人工智能驱动的瞄准算法,加剧了地区紧张局势,该项目因此而备受瞩目。
Maven项目最初是美国防部情报局下设的算法战争跨职能小组,旨在评估来自不同供应商的各种物体识别工具。这些工具利用美国海豹突击队在索马里行动期间获得的无人机镜头进行了严格测试。
2018 年,五角大楼最初的合作伙伴之一谷歌面临内部抗议,数千名工程师签署了一封反对公司参与军事技术的信件。
因此,谷歌选择不再与 "Maven项目 "续约。同年晚些时候,五角大楼以其功能的敏感性和对国家安全的潜在风险为由,将 Maven 项目列为机密,以防止公开披露。
自成立以来,"Maven项目 "取得了长足的发展。如今,该平台整合了先进雷达系统的数据,能够穿透云层、黑暗和恶劣天气条件。它还利用红外传感器探测热信号,提高了识别发动机或武器工厂等物体的能力。
摩尔强调,"Maven"的人工智能能力用于识别潜在目标,但不能独立验证或部署针对这些目标的武器。她指出,最近涉及 Centcom 人工智能推荐引擎的演习显示,在确定目标优先次序或选择最佳武器方面,与人类决策相比存在不足。
她还指出,每一次人工智能参与的行动都要经过人类审查,并确认机器不会自主决策,也不会构成控制威胁。因此,人的监督仍然至关重要,操作人员要严格评估人工智能的目标选择建议,以降低出错风险。
与科幻小说中的场景相反,人工智能系统并不具备夺取控制权或独立决策的自主能力。在涉及平民的场景中部署这些系统时,区分战斗人员和非战斗人员变得至关重要。在平民密集的环境中自主部署人工智能虽然有利于拆除武器设施或揭露工程项目,但也会带来重大的伦理和操作挑战。
将人工智能融入军事行动标志着从实验室实验到实战部署的关键过渡,为军事领导人带来了最复杂的挑战之一。主张快速采用人工智能的人认为,未来作战场景的发生速度将超出人类的理解能力。
然而,技术专家对美国军事网络和数据系统的准备情况表示担忧。前线部队对于是否依赖他们无法完全信任的软件仍然犹豫不决,而伦理学家则对允许机器做出可能致命的决定所涉及的伦理问题提出了警告。
随着美国和其他全球大国竞相将人工智能融入其军队,竞争优势将有利于那些在战场感知和决策方面超越人类局限的国家。
由于担心落后,美国开始了人工智能军备竞赛。然而,这种加速带来了对网络安全漏洞的担忧,未来的操作员可能会面临来自对手的威胁,对手可能会毒害或破坏他们的人工智能系统。机器人对机器人战争的前景凸显了人工智能自主武器令人不安的现实及其深刻的伦理考虑。
大型科技公司越来越多地接受与国防相关的人工智能应用。自最初抗议Project Maven以来,谷歌的立场发生了变化,最近,员工因对军事合同持有异议而遭到解雇。同样,亚马逊也因与以色列军方的合作而面临内部抗议,但并未改变其公司政策。这一转变反映了科技公司不顾道德问题与国防利益结盟的大趋势。
在过去的一年里,人们对自主武器和人工智能的关注与日俱增,这也燃起了法规倡导者的希望,即施加更大的政治压力以制定国际条约。然而,历史先例表明,国家安全利益往往凌驾于国际协议之上。随着人工智能在未来战争中的作用引发有关道德、信任和全球稳定的关键问题,这场辩论仍在继续。
参考来源:em360