推荐!【中文版】《可信人工智能:重新思考未来军事指挥》英智库皇家国防安全联合军种研究所2022最新48页报告

2022 年 7 月 20 日 专知

导语:本报告描述了英智库皇家国防安全联合军种研究所2022最新工作:可信人工智能对未来军事指挥的影响。专知做了中文编译,欢迎关注,完整中英文版请上专知网站(www.zhuanzhi.ai)查看


欢迎关注 专知AI+军事主题:

https://www.zhuanzhi.ai/topic/2001883600396423


人工智能正在改变战争。英国防部如何准备应对未来的变化?

对于人工智能的军事用途所带来的接受挑战,传统的反应是坚持要求人类保持 "有意义的人类控制",作为一种产生信心和信任的方式。考虑到人工智能和相关基础技术的普遍性和快速发展,这不再是一个适当的回应。人工智能将在整个军事行动范围内广泛的指挥和控制(C2)活动中发挥重要的、日益增长的作用。虽然在公众心目中,人工智能的威胁没有 "杀手机器人 "那么直接,但在军事决策中使用人工智能会带来关键的挑战,同时也有巨大的优势。加强人类对技术本身的监督并不能防止无意的(更不用说有意的)滥用。
本文以各级(作战操作员、指挥官、政治领导人和公众)的信任对有效采用人工智能进行军事决策至关重要这一前提为基础,探讨了关键的相关问题。对人工智能的信任究竟意味着什么?如何建立和维持它以支持军事决策?人类操作员和人工智能体之间的共生关系对未来的指挥需要作出哪些改变?
当人类对人工智能的行为持有某些期望,而不考虑人工智能体的意图或道德时,可以说存在对人工智能的信任。然而,与此同时,信任不仅仅是技术性能和可靠性的一个功能--它不能仅仅通过解决数据完整性和可解释性问题来保证,尽管它们很重要。军事人工智能中的信任建设还必须解决军事组织和指挥结构、文化和领导力方面的必要变化。实现总体上适当的信任水平需要一个整体的方法。除了信任人工智能的使用目的之外,军事指挥官和操作人员还需要充分信任--并且在如何信任--支撑任何特定人工智能模型的输入、过程和输出方面得到充分的培训和具有丰富经验。然而,最困难的,也可以说是最关键的层面是组织生态系统层面的信任。如果不改变军事决策的体制因素,未来人工智能在C2中的使用将仍然是次优的,被限制在一个模拟框架内。有效引进任何新技术,更不用说像人工智能这样的变革性技术,需要从根本上重新思考人类活动的组织方式。
优先考虑人和制度层面并不意味着对技术进行更多的控制;相反,它需要在不断发展的人机认知系统中重新思考人的作用和贡献。未来的指挥官将需要能够在一个真正的 "整体部队"中领导不同的团队,整合来自军事、政府和民事领域的贡献。他们必须对他们的人工队友有足够的了解,以便能够与他们合作并挑战他们。这更类似于海鸥的杂音,而不是个别 "翠鸟"领导人的天才。为了发展新的指挥和领导概念,英国防部必须重新思考其方法,不仅是培训和职业管理,还有决策结构和程序,包括未来总部的规模、位置和组成。
人工智能已经在改变战争,挑战人类长期的习惯。通过在训练和演习中接受更多的实验,以及探索C2的替代模式,国防部可以更好地准备迎接未来不可避免的变化。

前言

人工智能正在改变人类的思维和决策方式。未来,它将越来越多地影响人类如何确定各种认知过程的优先次序,调整他们的学习、行为和训练,并更广泛地改造他们的机构。这些变化在整个军队中仍不完全明显。尽管有新的技术和战争迅速发展的特点,今天的武装部队在组织结构上与后拿破仑时代欧洲的职业军队并没有很大的区别。太多的人仍然参与到军事任务中,而这些任务技术可以做得更好更快,并且对于重新思考人类对人机团队的认知贡献也没有给予足够的重视,而这正是解决未来指挥和控制(C2)问题所需要的。
本文以QinetiQ公司早先的一份报告为基础,该报告将信任视为军事能力的基本组成部分和2020年代军事适应性的基本要求。本文探讨了在军事决策中越来越多地使用人工智能的最新趋势和想法。本文并不直接关注这一趋势的伦理(或法律)问题,尽管这些问题很重要。相反,本文强调了信任作为人工智能时代军事指挥的一个因素的重要性和意义。
人工智能对军事决策和C2的潜在深远影响很少引起专家团体以外的关注。大多数公众关注的是技术的优势和风险,而不是人类认知和制度构建的潜力和限制。20多年前,著名的社会生物学家E-O-威尔逊抓住了人类当前的挑战。威尔逊说,真正的问题是,"我们有旧石器时代的情感;中世纪的制度;和神一样的技术。"在过去的几十年里,技术的发展速度远远超过了人类适应它的能力。强调人工智能的技术属性,而忽略其日益增长使用中的人类和制度层面,只会使挑战更加复杂。
在许多领域,人工智能的军事经验仍然有限,需要做更多的工作来了解人工智能在人类决策中作用日益增长的影响。本文旨在引发一场更广泛的辩论,讨论英国国防企业内部所需的文化和组织变革,包括指挥部和指挥官的作用,以确保人工智能在未来军事决策中的最佳使用。
本文的见解来自与人工智能、人类认知、军事决策和信任理论有关的更广泛的文献。这项研究在2021年9月至2022年2月期间进行,大大受益于与来自国防、学术界和工业界的广泛专家和用户的访谈。
前两章提供了本文的理论背景。第一章探讨了人工智能和信任的概念,第二章则分析了人类机构的作用以及人工智能对人类做出选择和决定的认知能力的影响。第三章结合信任、人工智能和人类机构的概念,提出了一个在人工智能支持的军事决策中发展信任的五维框架。第四章扩大了对C2的分析范围,特别关注人工智能对传统上支撑武装部队行使权力和指导的人和体制结构的影响。最后一章提出了对未来指挥、领导和 "全军 "团队的进一步研究领域。
完整中英文版请上专知查看!
https://www.zhuanzhi.ai/vip/9e71f6b52f2ba3b148135f71d61b8376

专知便捷查看

便捷下载,请关注专知人工智能公众号(点击上方蓝色专知关注)

  • 后台回复“MDA43” 就可以获取推荐!【中文版】《可信人工智能:重新思考未来军事指挥》英智库皇家国防安全联合军种研究所2022最新48页报告》专知下载链接


                       
专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取100000+AI(AI与军事、医药、公安等)主题干货知识资料!
欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取100000+AI主题知识资料
登录查看更多
63

相关内容

【AI+军事】最新22页PPT,解读人工智能军事应用
专知会员服务
304+阅读 · 2022年3月14日
人工智能技术在军事领域的应用思考
专知
31+阅读 · 2022年6月11日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
90+阅读 · 2009年12月31日
国家自然科学基金
12+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年9月19日
Arxiv
0+阅读 · 2022年9月16日
Arxiv
1+阅读 · 2022年9月15日
已删除
Arxiv
31+阅读 · 2020年3月23日
VIP会员
相关VIP内容
【AI+军事】最新22页PPT,解读人工智能军事应用
专知会员服务
304+阅读 · 2022年3月14日
相关资讯
人工智能技术在军事领域的应用思考
专知
31+阅读 · 2022年6月11日
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
90+阅读 · 2009年12月31日
国家自然科学基金
12+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员