为了能够在一个日益脆弱的世界中捍卫自己的生活方式和价值观,团结在北约框架内的西方民主国家必须有能力在必要时 "以机器速度作战"。为此,国防领域的数字化不能只局限于后勤、维护、情报、监视和侦察,而必须同样能够实现负责任的武器交战。以欧洲未来战斗航空系统(FCAS)为重点,我们讨论了基于人工智能的武器系统的道德统一系统工程的各个方面,这可能会在国际社会中找到更广泛的同意[1]。在FCAS计划中,这是自二战以来欧洲最大的军备努力,有人驾驶的喷气式飞机是一个网络系统的元素,无人驾驶的 "远程载体 "保护飞行员并协助他们完成战斗任务。鉴于正在进行的辩论,德国国防部长已经强调。"欧洲战略自主的想法走得太远了,如果它被认为意味着我们可以在没有北约和美国的情况下保证欧洲的安全、稳定和繁荣。那是一种幻觉[2]"。在这个意义上,FCAS与北约的目标是一致的。
"武器的杀伤力越大,影响越深远,就越需要武器背后的人知道他们在做什么,"沃尔夫-冯-鲍迪辛将军(1907-1993)说,他是1955年成立的二战后德国联邦国防军的富有远见的设计师(见图1)。"如果没有对道德领域的承诺,士兵就有可能成为一个单纯的暴力功能者和管理者"。他深思熟虑地补充道。"如果仅仅从功能的角度来看,也就是说,如果要实现的目标在任何情况下都高于人,那么武装部队将成为一种危险[3]"。
弗朗西斯-培根(1561-1626)关于实现权力是所有知识的意义的声明标志着现代项目的开始[4]。然而,自从人工智能(AI)在国防领域出现后,旨在造福人类的技术可能会反过来影响它。这种类型的工具性知识使现代危机像在聚光灯下一样明显。关于人的伦理知识,关于人的本质和目的,必须补充培根式的知识。有一种 "人的生态学",一位德国教皇提醒德国议员说。"他不制造自己;他要对自己和他人负责[5]"。因此,任何符合伦理的工程必须是以人类为中心的。这对于国防领域的人工智能来说是最迫切的。因此,数字伦理和相应的精神和道德是必不可少的技能,要与卓越的技术同时系统地建立起来。因此,领导哲学和个性发展计划应鼓励设计和使用基于人工智能的防御系统的道德能力。
北约STO的科技界如何在技术上支持负责任地使用我们从人工智能中收获的巨大力量?为了更具体地论证,让我们以德国联邦国防军的文件为指导,从它在20世纪50年代成立的时候,也就是人工智能这个词真正被创造出来的时候,到最近的声明。由于这些武装部队已经从暴政和以当时高科技为特征的 "全面战争 "中吸取了教训,他们似乎在概念上已经为掌握数字挑战做了准备。这一点更是如此,因为联邦国防军是一支载于《德国基本法》的议会军队,它完全按照联邦议院的具体授权行事,即以德国人民的名义行事。
国防领域的人工智能旨在将军事决策者从常规或大规模任务中解脱出来,并 "驯服 "复杂性,让他们做只有个人才能做的事情,即智能地感知情况并负责任地采取行动。自动化对联邦国防军的重要性很早就被认识到了。冯-鲍迪辛在1957年提出:"然后,人类的智慧和人力将再次能够被部署到适合人类的领域"[6]。从这个角度来看,武装部队作为基于人工智能的系统的使用者,并没有面临根本性的新挑战,因为技术的发展一直在扩大感知和行动的范围。