在人工智能和自主系统日益成为现代战争以决策为中心的基础的环境中,对这些数据丰富的超速领域的解释将成为指挥、控制和分析的共同困境。许多军事报告已经认识到,未来的战争将越来越多地被 "大量的自主系统 "所定义(澳大利亚陆军,2021年),关键的战略挑战和优势将取决于向以决策为中心的能力转变(克拉克等人,2020年)。在这种复杂、遥远和混合的安全背景下,解释学,或解释的理论和方法,将是关键的挑战。我们建议围绕四个解释学模式建立基于场景的模拟。在现实世界的例子的启发下,我们的方法推断出假设的场景,以开发沉浸式决策模拟。这些场景要求参与者浏览四个复杂而微妙的解释学模式:(1)信任解释学探索决策的完整性和强大的系统如何被对手破坏或劫持。(2) 批判解释学将数字对象/过程置于更广泛的社会政治和文化背景中,承认人类社区与机器学习活动之间有争议的互动。(3) 隐性解释学是一种积极寻求揭示和揭开数字生态系统中的系统偏见或邪恶因素的处置方式。(4) 怀疑解释学允许以复杂的形式破译和揭示知识的多个来源和意义的层次。高级模拟将探索反措施的武器化。这些模拟将提供研究和培训,提高指挥、控制和情报从业人员的复原力和以决策为中心的能力。

本文的结构分为四个部分。第一部分简要考虑了 "马赛克战争 "的战略概念,将我们的工作置于本次会议的主题中,并与我们正在进行的人工智能和思维群的研究联系起来。第二部分介绍了我们在解释学方面的工作,这种思想在当代战争(和更广泛的政治冲突)的一系列新模式中获得了吸引力。第三部分介绍了我们在构建基于场景的模拟时确保真实性的理由和方法。第四部分提出了一个弹性解释学的案例,阐明了解释学框架如何能够被纳入三种通用类型的情景(第一秩序、第二秩序和团队合作情景)。利用这些方法的研究和专业发展成果是为决策者开发一种能力,以预测和更有效地应对复杂的解释挑战。

成为VIP会员查看完整内容
33

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
【英国国防部】《兵棋推演手册》112页PDF
专知
19+阅读 · 2022年8月25日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
3+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2022年11月29日
Arxiv
0+阅读 · 2022年11月28日
Arxiv
0+阅读 · 2022年11月25日
Arxiv
80+阅读 · 2022年7月16日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
3+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员