人工智能(AI)已经渗透到生活的许多领域,国防领域也不例外。从优化物流链到处理大量情报数据,人工智能在军事领域都有应用。越来越多的人认为,人工智能将对未来战争产生重大影响,世界各地的部队都在大力投资人工智能所带来的能力。尽管取得了这些进步,但战斗在很大程度上仍然是人类的活动。

通过使用人工智能支持的自主武器系统(AWS)将人工智能引入战争领域,可能会彻底改变国防技术,这也是当今最具争议的人工智能用途之一。关于自主武器如何遵守出于人道主义目的而制定的武装冲突规则和条例,一直存在着特别的争论。

政府的目标是 "雄心勃勃、安全、负责任"。当然,我们原则上同意这一目标,但愿望与现实并不相符。因此,在本报告中提出建议,以确保政府以合乎道德和法律的方式在 AWS 中开发和使用人工智能,提供关键的战略和战场效益,同时实现公众理解和认可。必须将 "雄心勃勃、安全负责 "转化为实际执行。

政府必须寻求、建立并保持公众对开发和使用人工智能的信心和民主认可,尤其是在 AWS 方面。从媒体对我们调查的报道中可以清楚地看出,人们对在预警系统中使用人工智能有着广泛的兴趣和关注。实现民主认可有几个要素:

理解: 对自主武器的讨论,以及在很大程度上对人工智能的讨论,都受到追求议程和缺乏理解的困扰。我们的目标之一是为建设性辩论提供事实依据,政府的坦诚和透明将有助于这一进程。

议会的作用: 议会是开发和使用预警系统的决策中心。议会的监督能力取决于信息的可获得性,取决于其预测问题而不是事后反应的能力,也取决于其追究部长责任的能力。政府必须在议会时间表中留出足够的空间,并提供足够的信息,以便议会(包括其专门委员会)有效地审查其人工智能政策。我们当然理解政策制定的内容可能高度敏感,但我们有既定的方法来处理此类信息。绝不能以保密为由逃避责任。

保持公众信心: 对英国防部 "目前没有开展监测或民意调查以了解公众对使用自主武器系统的态度 "这一事实感到失望。政府必须确保在开发自动武器系统时适当征求公众意见。它还必须确保道德规范处于其政策的中心位置,包括扩大英国防部人工智能道德咨询委员会的作用。

实现以下目标对这一进程至关重要:

政府应以身作则,在国际上参与对 AWS 的监管。人工智能安全峰会是一个值得欢迎的举措,但它并不包括国防。政府必须将人工智能纳入 AWS,因为政府宣称希望 "以包容的方式共同努力,确保以人为本、值得信赖和负责任的人工智能是安全的",并 "通过现有的国际论坛和其他相关倡议支持所有人的利益"。

几年来,国际社会一直在辩论如何监管人工智能系统。这场辩论的结果可能是一项具有法律约束力的条约,也可能是澄清国际人道主义法应用的非约束性措施--每种方法都有其拥护者。尽管在形式上存在分歧,但关键目标是加快努力,达成一项有效的国际文书。

其中的一个关键因素将是禁止在核指挥、控制和通信中使用人工智能。一方面,人工智能的进步有可能提高核指挥、控制和通信的效率。例如,机器学习可以提高预警系统的探测能力,使人类分析人员更容易交叉分析情报、监视和侦察数据,并改善核指挥、控制和通信的防护,使其免受网络攻击。

然而,在核指挥、控制和通信中使用人工智能也有可能刺激军备竞赛,或增加各国在危机中有意或无意地升级使用核武器的可能性。使用人工智能时,决策时间被压缩,可能会导致紧张局势加剧、沟通不畅和误解。此外,人工智能工具可能会被黑客攻击,其训练数据可能会中毒,其输出结果可能会被解释为事实,而实际上它们只是统计上的相关性,所有这些都可能导致灾难性的结果。

政府应采用可操作的 AWS 定义。令人惊讶的是,政府目前还没有这样的定义。英国防部表示,它对采用这样一个定义持谨慎态度,因为 "此类术语已具有超出其字面解释的含义",并担心 "在一个如此复杂和快速发展的领域,过于狭隘的定义可能很快过时,并可能无意中阻碍国际讨论的进展"。然而,我们认为可以创建一个面向未来的定义。这样做将有助于英国制定有意义的自主武器政策,并充分参与国际论坛的讨论。

政府应确保在 AWS 生命周期的各个阶段都有人类控制。人们对 AWS 的关注主要集中在由人工智能技术实现自主的系统上,由人工智能系统对从传感器获得的信息进行分析。但是,为了确保人类的道德代理权和法律合规性,对系统的部署进行人为控制是至关重要的。这必须以我们国家对国际人道法要求的绝对承诺为支撑。

政府应确保其采购程序是为人工智能世界而适当设计的。英国防部的采购工作缺乏问责制,过于官僚化。特别是,英国防部缺乏软件和数据方面的能力,而这两者都是人工智能发展的核心。这可能需要革命性的变革。如果需要,那就改变吧;但时间紧迫。

成为VIP会员查看完整内容
134

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《机器学习及其在美海军陆战队行动中的应用》34页论文
《美陆军:将人工智能融入团队认知》47页报告
专知会员服务
98+阅读 · 2023年10月26日
《攻击和欺骗军事人工智能系统》2023最新48页报告
专知会员服务
138+阅读 · 2023年6月16日
《降低人工智能对军事决策优势的风险》2023最新39页报告
专知会员服务
108+阅读 · 2023年4月20日
《攻击性人工智能》最新62页报告
专知会员服务
117+阅读 · 2023年3月29日
《在国防中实现负责任的人工智能》2023最新报告
专知会员服务
44+阅读 · 2023年2月22日
国家自然科学基金
294+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
30+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2013年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
147+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
294+阅读 · 2017年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
30+阅读 · 2014年12月31日
国家自然科学基金
40+阅读 · 2013年12月31日
微信扫码咨询专知VIP会员