可解释的人工智能(XAI)提供了克服这一问题的手段,它基于有关深度学习(DL)算法结果的额外补充信息。虽然完全透明对于复杂的DL算法来说仍然是不可行的,但解释有助于用户在关键情况下对AI信息产品进行判断。应该指出的是,XAI是透明度、因果关系、可信度、信心、公平、信心和隐私等方面的总称。因此,基本的方法论是多方面的。一种已经流行的方法是局部可解释模型-预知解释(LIME)方法,因为它可以很好地应用于各种应用中的不同模型。在本文中,LIME算法是在战略运营的决策建议背景下进行研究的。在简单介绍了其概念后,介绍了文献中的应用。然后,一个战略博弈的场景被认为是军事战争的替代环境。一个基于DL的国际象棋人工智能被做成 "可解释的",以评估信息对人类决定者的价值。得出了与战略混合行动有关的结论,这反映了所提出的方法的局限性。
根据设想,未来战略战争的决策将在很大程度上受到基于人工智能(AI)方法的信息产品的影响。特别是混合作战,是在一个高维和变异的环境中进行的,在这种环境中,对潜在的威胁和机会的评估是人类操作者难以掌握的,战略规划必须纳入异质的、多功能的和高容量的数据源。因此,基于人工智能方法的算法产生的分类、预测和建议在这种复杂的场景中变得越来越重要。在过去的几年里,人工智能的方法已经获得了巨大的发展,有大量的创新和令人尊敬的成果,可以从大型数据集中获得更高层次的信息。然而,深度学习(DL)方法的一个主要缺点是其固有的黑箱属性,即由于计算模型的复杂性,其结果是不透明的。例如,后者可能有数百个层和数百万个参数,这些参数是在训练阶段通过算法发现和优化的。因此,即使结果是准确的,用户也没有机会理解它或掌握输入数据的因果部分。这反过来又会影响到用户对辅助设备的信任,在两个方向上都是如此。这个问题在某些民事应用中起着次要的作用,例如语音识别,它经常被应用于与设备的互动,因为除了体面的失望之外没有潜在的风险。对于其他非常具体的任务,如手写字符识别,DL算法的性能超出了人类的平均水平,这意味着失败的可能性很小,因此关于因果关系的问题可能成为附属品。然而,在许多军事应用中,当涉及到与人工智能的互动时,人类的信任是一个关键问题,因为错误的决定可能会产生严重的后果,而用户始终要负责任。这实际上是两方面的。一方面,操作者往往需要了解人工智能产品的背景,特别是如果这些产品与他或她自己的本能相悖。另一方面,不可理解的技术会对算法信息产品产生偏见,因为很难确定在哪些条件下它会失败。因此,适当的信任程度可能很难计算。
可解释的人工智能(XAI)是向黑盒人工智能模型的用户提供 "透明度"、"可解释性 "或 "可解释性 "的方法的集合。这些术语几乎没有一个共同的定义,但许多出版物提到了:
XAI不能完全 "解释 "DL模型,然而,它为工程师或操作员提供了更好地理解特定AI产品背后的因果关系的手段。而且很多时候,这可以帮助看到,从合理的因果关系链暗示算法决策或预测的意义上来说,该模型是否是合理的(或不是)。因此,XAI可以成为人工智能模型工程的一个重要工具,用于安全方面的验证,甚至用于认证过程,以及为操作员提供额外的信息,以支持明智的决策。
虽然关于XAI的大多数文献都集中在图像识别的方法上,但这些结果很难转化为基于特定挑战性竞争形势的战术和战略决策领域。在本文中,我们研究了人工智能模型在棋盘评估中的可解释性。对更复杂的军事战略模拟的一些影响进行了讨论。
本文的结构如下。在下一节中,简要介绍了选定的XAI方法。然后,这些方法之一(LIME)被应用于棋盘评估问题,以证明在支持信息方面的解释的质量。在最后一节,得出了结论,并讨论了对更复杂的战争博弈和模拟的概括。