“现代科学赋予了人类运动,却夺走了人类的情感"。这是 20 世纪 40 年代孟加拉 “旅行 ”作家比诺伊-穆克波帕达伊说过的一句话。时隔近 100 年,现在才知道这句话的精髓。随着科学的不断进化和发明,人类的思想正处于被改变的边缘。机器人、人工智能(AI)、自动化机器和其他自我调节的机构都是现代科学的奇迹。如果机器人征服了人力资源,那么世俗活动也必将因缺乏共鸣而获得动力。战争不仅是两个或更多势力之间的战斗。政府、政治、平民、和平、人权、安全、经济等其他因素都与战争息息相关。只有人脑才能对发动战争的所有这些因素做出正确的判断和论证。人工智能和机器人只能通过编程和某些输入来运行。在战争中,这些机器人陆军无法像人类士兵那样明辨是非。在未来,使用人工智能和机器人军队的国家肯定会在彼此间占据上风,但持久的安全性仍然是个问题。这篇评论将给读者带来以下启迪:作战机器人的需求,使用人工智能和机器人的战争战术和影响,在战争中使用机器人的战略收益,自动化军队参与的挑战和风险,最后是不同国家在开创少人战争中的计划和准备。
有许多原因支持在战斗中使用机器人军队。尽管可以训练士兵打仗,确保和平,但可以说,在战场上使用机器人更有效。说到这里,第一个理由是尽量减少国家武装部队的损失。如果在战争中使用人类士兵,其伤亡率很可能高于机器人的功能障碍率。机器人可以承受巨大的破坏,而人类却很难承受。
其次,在战争中引入人工智能可以提高对敌方阵地打击的准确性。这包括完善的情报、监视和侦察,精确定位敌方目标,正确瞄准击落对手,以较小的力量造成更大的伤亡。
军方为自主作战系统提出的另一个理由是军备竞赛。越来越先进的武器和军事硬件的发展实际上是军事进步的结果。例如,世界上最强大的国家都在研发高超音速武器,这种武器可以穿过敌人的导弹防御系统。由于这些目标的速度快得惊人,为反导弹系统进行计算的人员根本来不及评估空中形势、做出判断和发出指令。
最重要的目标之一是尽量减少在武装情况下丧生的军人数量。这样才能与敌方保持数量上的均势或优势。减少伤亡也意味着降低军方的成本,从保险费到计划救援任务、撤离和埋葬死者。此外,教育专业军事人员需要花费大量的金钱和时间,因此在敌对行动中失去他们是非常无利可图的。
传统战争是由士兵利用步兵力量、装甲坦克、火炮、致命武器、堑壕战系统、设置雷区、刺刀格斗、地面陷阱等战术实施的。然而,人工智能将给战场带来革命性的战略变化。随着人工智能的引入,战争中的一切都将实现自动化,并与敌对势力展开搏斗。以下是一些自我调节装备及其战争战术的例子
人工智能的引入将有助于战争从传统模式转向混合模式。在军事行动和战争中使用人工智能将减少对人力资本的依赖。当机器人取代人类士兵时,错误数量也将大大减少。由于依赖人工智能,侦察、收集情报、使用武器、监视、通信、消除爆炸物等活动将更加准确和高效。效率的提高将减少维护工作。
及时做出决策是战争时期的一个关键因素。指挥官亟需做出战略和战术决定,然后将这些决定传达给部队中的各级下属。在关键时刻使用人工智能,指挥官肯定能更快地做出决策。这些决策不仅会更快,而且会更准确。战争中会出现许多意外情况。如果参与战争,机械化决策将利用迅速的战术克服任何意外情况。人脑做出的任何错误决定都会导致战斗中的人员伤亡,但使用计算机编程做出的战略决策所造成的损失要小得多。
致命自主武器系统(LAWS)也被称为屠宰机器人。这些机器人利用人工智能来定位、选择和杀死目标,无需人工辅助。目前使用的无人驾驶军用无人机只能在远程人类操作员发出命令时开火。然而,屠宰机器人有能力自行攻击目标。可由人类控制的无人机早已用于作战。但如果配上易于获取的图像识别器和自动推进装置,它们就能变成杀人机器。
无人机群是指同时使用多架无人机,无人机之间相互通信,并提醒操作员战场上的变化。蜂群可以使用单一类型或多种类型的无人机。人工智能军事应用的一个关键前沿领域是部署人工智能无人机群的能力,以利用这种强大的集体智能来实现军事目标。
最近,无人机群的例子出现在俄乌战争中,俄罗斯为了显示自己的强大,向乌克兰派遣了无人机群,造成基辅附近至少四人死亡。此外,美国正在推进自主无人机群技术,该技术已在乌克兰的持续冲突中显示出效力,并在模拟中显示出其决定性影响。其他一些国家也选择在战争中引入这种战术,本评论将对此进行讨论。
在充满挑战的作战条件下,正在开发人工智能方法来提高目标识别精度。借助这些方法,军事人员可以检查报告、文件和其他信息,以全面了解可能的行动区域。此外,目标识别系统中的人工智能还能增强这些系统的目标定位能力。例如,在 M1 艾布拉姆斯坦克上,美国陆军就显示了基于人工智能的目标识别系统。
无人飞行器(UAV)可以更快地完成目标探测和识别,并处理从其传感器获得的数据。在使用基于人工智能的图像处理方法时尤其如此。这些飞行器的吸引力在于,除了减少战斗伤亡外,它还超越了人类的许多局限性。与有人驾驶飞机相比,无人驾驶飞行器体积更小、速度更快、机动性更强。它们在密切监视敌方活动和向指挥站传递信息方面将大有帮助。从技术上讲,无人机的构想是可行的,它能符合可靠的作战战略,满足作战要求。
机器人或人工智能不是人类。如前所述,人类战斗员能够理解战争伦理,但机器人只能通过算法执行任务,并不关心伦理原则。机器人陆军会让战争变得更容易,但是,让这些部队参与真实的战争场景也存在挑战和风险。
人权倡导者对军事技术的进步感到震惊。如果机器人的使用不再受人类控制,就会产生一个重大的责任漏洞,即程序员、制造商和军方人员都可以避免为完全自主武器造成的意外伤亡承担责任。如果程序有问题,机器人可能会杀死平民甚至士兵。联合国要求禁止在战争中使用带有人工智能的战斗机器人,并在其会议上提出这些问题进行讨论。
最重要的是,机器人不受情感驱使,没有痛苦,对任何化学或生物武器都免疫。在机器与机器的冲突中,战场上将没有人。在战区,无辜平民将被迫承担战斗的全部代价。这表明,非战斗人员将比战斗人员面临更大的危险。此外,还存在轻微的扩散危险。冲突中的人工智能易于运输,难以发现。此外,与常规武器不同,它们不需要武力。一个人就有能力派出致命的机器人大军。种族灭绝和大范围谋杀可能在几秒钟内发生。下一代核武器可能是人工智能和网络武器。
世界上大多数发达国家已经选择并正在进行在战争中使用人工智能和机器人军队的试验。
人工智能和机器人军队的发展可以辅助人类战斗员,但不能取代人类战斗员。总之,军队采用人工智能和机器人技术是战争艺术的一大发展。不过,在战斗中使用自主系统必须考虑到道德和伦理方面的影响。各国政府和军事团体必须确保这些技术的创造和应用在全球范围内遵守道德和法律规范。
此外,为了阻止这些技术被滥用,制定有效的法规和监督方法也至关重要。最后,为了应对可能存在的风险和挑战,优化人工智能和机器人技术在军事领域的优势,还需要进行更多的研究和开发。