由于军事战场日益复杂,国防部门正在寻找最先进的解决方案,为操作人员提供工具,以实现比对手更快和更有效的决策过程。这些工具通常被称为决策支持系统(DSS),在过去几十年里一直在使用。人工智能技术通常被应用在决策支持系统中,以确保与个人行为相比,错误率更低,决策更快。在决策支持系统中,这种实现的有效性在很大程度上取决于操作者对人工智能提供的建议的理解能力,以及由此产生的信任。可解释的人工智能(XAI)允许用户通过在DSS的用户界面(UI)中可视化的过程来了解系统是如何得出关于某个决策的建议的。然而,这也带来了一个固有的问题,即:在用户超载、降低操作者的决策性能之前,应该向用户展示多少过程?
在这项研究中,一个人工智能驱动的应用程序已经被开发出来,它可以帮助操作员规划一个军用直升机任务。在这个场景中,操作者需要为直升机上的士兵找到两个合适的着陆区域(LZs),以便接近一个小城市地区的恐怖分子营地。DSS支持选择合适的降落区域的过程,考虑到各个方面,例如到目标区域的距离、光斑大小、表面类型和坡度。为了评估达到信任和任务绩效的最佳水平需要多少透明度,我们定义了四个可解释性级别,每个级别都增加了信息透明度和控制级别。对于这四个关卡中的每一个,都需要在测试阶段设计、开发和评估独特的ui。结果表明,第三和第四UI设计的性能有所提高(决策制定的时间更少,LZ决策的正确百分比更高,提交的LZ反映了良好的人机交互,感知和实际得分之间的偏差较低),这比前两层提供了更多的信息和更多的互动可能性。结果还表明,用户更喜欢个性化他们的UI,以满足他们的角色、体验水平和个人偏好。