今天的战场正在经历一场由建立在人工智能和机器学习等方法和手段上的智能系统(IS)带来的军事事务革命。这些技术有可能从根本上改变战场的性质,为用户提供更好的数据,使其能够更好、更快地做出决定。虽然这些技术具有巨大的潜力,但它们在被作战人员、军事领导层和政策制定者广泛采用方面面临巨大障碍。
混合战争的战场是一个危险的环境。基于信息系统的决策支持,提供计算机生成的预测或建议,必须与现实世界的巨大后果抗衡。不幸的是,智能系统所固有的复杂性和多维性往往使传统的验证和确认工作(如可追溯性分析)变得不可能。此外,由于智能系统的典型的不透明性,用户经常面临着可能有广泛的道德和伦理问题的决策。战士们可能不愿意将自己或他人的生命交到决策不透明的系统手中。将军们可能会担心为失败承担责任。政策制定者可能会担心他们的政治前途。这些对信任和采用先进系统的挑战,如果不直接理解和系统地克服,将可能使西方军队与那些对使用先进系统不那么担心的对手相比处于非常不利的地位。
无数的研究工作提供了关于人们何时信任技术系统并采用它们的观点。然而,这些观点中很少有专门针对基于智能系统的技术的,更少的是针对军事应用中的高风险环境和独特需求,特别是混合战争的背景。
本文提供了一个关于信任和接受技术的混合模型概述,它将帮助开发者和设计者建立系统,以提高对军事应用先进智能系统的信任和接受。具体来说,我们的方法借鉴了多个经验证的计算行为科学信任模型,以及经验证的技术接受框架。我们的混合模型旨在支持快速的现场测试,为提高先进军事智能系统的信任度和接受度提供一个应用的、计算上有效的框架。