在过去的几年里,人工智能(AI)系统的能力急剧增加,同时带来了新的风险和潜在利益。在军事方面,这些被讨论为新一代 "自主"武器系统的助推器以及未来 "超战争 "的相关概念。特别是在德国,这些想法在社会和政治中面临着有争议的讨论。由于人工智能在世界范围内越来越多地应用于一些敏感领域,如国防领域,因此在这个问题上的国际禁令或具有法律约束力的文书是不现实的。
在决定具体政策之前,必须对这项技术的风险和好处有一个共同的理解,包括重申基本的道德和原则。致命力量的应用必须由人指挥和控制,因为只有人可以负责任。德国联邦国防军意识到需要应对这些发展,以便能够履行其宪法规定的使命,即在未来的所有情况下保卫国家,并对抗采用这种系统的对手,按照其发展计划行事。因此,迫切需要制定概念和具有法律约束力的法规,以便在获得利益的同时控制风险。
本立场文件解释了弗劳恩霍夫VVS对当前技术状况的看法,探讨了利益和风险,并提出了一个可解释和可控制的人工智能的框架概念。确定并讨论了实施所提出的概念所需的部分研究课题,概述了通往可信赖的人工智能和未来负责任地使用这些系统的途径。遵循参考架构的概念和规定的实施是基于人工智能的武器系统可接受性的关键推动因素,是接受的前提条件。