摘要

可解释的人工智能(XAI)提供了克服这一问题的手段,它基于有关深度学习(DL)算法结果的额外补充信息。虽然完全透明对于复杂的DL算法来说仍然是不可行的,但解释有助于用户在关键情况下对AI信息产品进行判断。应该指出的是,XAI是透明度、因果关系、可信度、信心、公平、信心和隐私等方面的总称。因此,基本的方法论是多方面的。一种已经流行的方法是局部可解释模型-预知解释(LIME)方法,因为它可以很好地应用于各种应用中的不同模型。在本文中,LIME算法是在战略运营的决策建议背景下进行研究的。在简单介绍了其概念后,介绍了文献中的应用。然后,一个战略博弈的场景被认为是军事战争的替代环境。一个基于DL的国际象棋人工智能被做成 "可解释的",以评估信息对人类决定者的价值。得出了与战略混合行动有关的结论,这反映了所提出的方法的局限性。

引言

根据设想,未来战略战争的决策将在很大程度上受到基于人工智能(AI)方法的信息产品的影响。特别是混合作战,是在一个高维和变异的环境中进行的,在这种环境中,对潜在的威胁和机会的评估是人类操作者难以掌握的,战略规划必须纳入异质的、多功能的和高容量的数据源。因此,基于人工智能方法的算法产生的分类、预测和建议在这种复杂的场景中变得越来越重要。在过去的几年里,人工智能的方法已经获得了巨大的发展,有大量的创新和令人尊敬的成果,可以从大型数据集中获得更高层次的信息。然而,深度学习(DL)方法的一个主要缺点是其固有的黑箱属性,即由于计算模型的复杂性,其结果是不透明的。例如,后者可能有数百个层和数百万个参数,这些参数是在训练阶段通过算法发现和优化的。因此,即使结果是准确的,用户也没有机会理解它或掌握输入数据的因果部分。这反过来又会影响到用户对辅助设备的信任,在两个方向上都是如此。这个问题在某些民事应用中起着次要的作用,例如语音识别,它经常被应用于与设备的互动,因为除了体面的失望之外没有潜在的风险。对于其他非常具体的任务,如手写字符识别,DL算法的性能超出了人类的平均水平,这意味着失败的可能性很小,因此关于因果关系的问题可能成为附属品。然而,在许多军事应用中,当涉及到与人工智能的互动时,人类的信任是一个关键问题,因为错误的决定可能会产生严重的后果,而用户始终要负责任。这实际上是两方面的。一方面,操作者往往需要了解人工智能产品的背景,特别是如果这些产品与他或她自己的本能相悖。另一方面,不可理解的技术会对算法信息产品产生偏见,因为很难确定在哪些条件下它会失败。因此,适当的信任程度可能很难计算。

可解释的人工智能(XAI)是向黑盒人工智能模型的用户提供 "透明度"、"可解释性 "或 "可解释性 "的方法的集合。这些术语几乎没有一个共同的定义,但许多出版物提到了:

  • 透明度是指人类跟踪和理解模型创建过程的可能理解程度。这就是从数据中提取信息,转化为推理参数的表现形式。DL前馈网络由于其基于大数据集的迭代学习过程和错误向各层的递归传播而缺乏这一特性。
  • 可解释性是指对模型本身的理解程度,即从输入数据到预测结果的信息流可以被理解。由于涉及的参数数量和层的层次结构,这对标准网络来说是不可行的。
  • 可解释性是指对特定预测结果进行解释的可能性程度。也就是说,用户可以看到与输入数据的一致性,在某种程度上可以看到是否存在因果关系。

XAI不能完全 "解释 "DL模型,然而,它为工程师或操作员提供了更好地理解特定AI产品背后的因果关系的手段。而且很多时候,这可以帮助看到,从合理的因果关系链暗示算法决策或预测的意义上来说,该模型是否是合理的(或不是)。因此,XAI可以成为人工智能模型工程的一个重要工具,用于安全方面的验证,甚至用于认证过程,以及为操作员提供额外的信息,以支持明智的决策。

虽然关于XAI的大多数文献都集中在图像识别的方法上,但这些结果很难转化为基于特定挑战性竞争形势的战术和战略决策领域。在本文中,我们研究了人工智能模型在棋盘评估中的可解释性。对更复杂的军事战略模拟的一些影响进行了讨论。

本文的结构如下。在下一节中,简要介绍了选定的XAI方法。然后,这些方法之一(LIME)被应用于棋盘评估问题,以证明在支持信息方面的解释的质量。在最后一节,得出了结论,并讨论了对更复杂的战争博弈和模拟的概括。

成为VIP会员查看完整内容
18
0

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、物流运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
25+阅读 · 2021年9月26日
Financial Time Series Representation Learning
Arxiv
10+阅读 · 2020年3月27日
小贴士
相关VIP内容
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员