Drone Wars UK 的最新简报着眼于人工智能目前在军事环境中的应用方式,并考虑了所带来的法律和道德、作战和战略风险。

人工智能 (AI)、自动决策和自主技术已经在日常生活中变得普遍,并为显着改善社会提供了巨大的机会。智能手机、互联网搜索引擎、人工智能个人助理和自动驾驶汽车是依赖人工智能运行的众多产品和服务之一。然而,与所有技术一样,如果人们对人工智能了解甚少、不受监管或以不适当或危险的方式使用它,它也会带来风险。

在当前的 AI 应用程序中,机器为特定目的执行特定任务。概括性术语“计算方法”可能是描述此类系统的更好方式,这些系统与人类智能相去甚远,但比传统软件具有更广泛的问题解决能力。假设,人工智能最终可能能够执行一系列认知功能,响应各种各样的输入数据,并理解和解决人脑可以解决的任何问题。尽管这是一些人工智能研究计划的目标,但它仍然是一个遥远的前景。

AI 并非孤立运行,而是在更广泛的系统中充当“骨干”,以帮助系统实现其目的。用户不会“购买”人工智能本身;他们购买使用人工智能的产品和服务,或使用新的人工智能技术升级旧系统。自主系统是能够在没有人工输入的情况下执行任务的机器,它们依靠人工智能计算系统来解释来自传感器的信息,然后向执行器(例如电机、泵或武器)发出信号,从而对机器周围的环境造成影响.

人工智能被世界军事大国视为变革战争和获得战胜敌人的优势的一种方式。人工智能的军事应用已经开始进入作战使用,具有令人担忧的特性的新系统正在迅速推出。与军事和公共部门相比,商业和学术界已经引领并继续引领人工智能的发展,因为它们更适合投资资金和获取研究所需的资源。因此,未来人工智能的军事应用很可能是对商业领域开发的技术的改编。目前,人工智能正在以下军事应用中采用:

  • 情报、监视和侦察
  • 赛博战
  • 电子战
  • 指挥控制和决策支持
  • 无人机群
  • 自主武器系统

人工智能和英国军事

综合审查和其他政府声明毫无疑问地表明,政府非常重视人工智能的军事应用,并打算继续推进人工智能的发展。然而,尽管已经发布了概述使用自动化系统的学说的出版物,但迄今为止,英国国防部 (MoD) 仍然对管理其人工智能和自主系统使用的伦理框架保持沉默,尽管已经做出了一些重大决定。军事人工智能的未来用途。

英国国防部一再承诺发布其国防人工智能战略,预计该战略将制定一套高级伦理原则,以控制军事人工智能系统的整个生命周期。该战略是在与来自学术界和工业界的选定专家讨论后制定的,尽管政府尚未就与人工智能的军事用途相关的伦理和其他问题进行公开磋商。该战略的主要目的之一是向行业和公众保证,国防部是人工智能项目合作的负责任合作伙伴。

与此同时,在没有任何道德指南的情况下,计划和政策正在迅速推进,主要问题仍未得到解答。英国军队在什么情况下会采用人工智能技术?政府认为何种程度的人为控制是合适的?风险将如何解决?英国将如何向其盟友和对手证明英国打算采取有原则的方法来使用军事人工智能技术?

军事人工智能系统带来的风险 上述人工智能的每一种不同的军事应用都会带来不同的风险因素。作为国防部总部后台操作的一部分,对数据进行排序的算法会引发不同的问题和担忧,并且需要与自主武器系统不同级别的审查。

尽管如此,目前正在开发的人工智能系统无疑会对生命、人权和福祉构成威胁。军事人工智能系统带来的风险可以分为三类:道德和法律、操作和战略。

道德和法律风险

  • 遵守战争法: 目前尚不清楚机器人系统,特别是自主武器如何能够满足战争法制定的致命决定和保护非战斗人员的标准。

-问责制:目前尚不清楚如果出现问题,谁来承担责任:如果计算机运行不可预测并因此犯下战争罪行,惩罚它是没有意义的。

  • 人权和隐私:人工智能系统对人权和个人隐私构成潜在威胁。

  • 不当使用:在战斗环境中处于压力之下的部队可能会试图修改技术以克服安全功能和控制。

作战应用风险

  • 偏见的技术来源:人工智能系统的好坏取决于它们的训练数据,少量损坏的训练数据会对系统的性能产生很大影响。

  • 偏见的人为来源:当人类滥用系统或误解其输出时,可能会导致偏见。当作战员不信任系统或系统非常复杂以至于其输出无法解释时,也会发生这种情况。

  • 恶意操纵:军用 AI 系统与所有联网系统一样,容易受到恶意行为者的攻击,这些行为者可能试图干扰、黑客攻击或欺骗系统。

战略风险

  • 降低门槛:人工智能系统带来了政治领导人在冲突中诉诸使用自主军事系统而不是寻求非军事选择的风险。

  • 升级管理:涉及人工智能的军事行动的执行速度降低了审议和谈判的空间,可能导致快速意外升级并造成严重后果。

  • 军备竞赛和扩散:对军事人工智能的追求似乎已经引发了军备竞赛,主要和地区大国竞相发展其能力以保持领先于竞争对手。

  • 战略稳定性:如果先进的人工智能系统发展到能够预测敌人战术或部队部署的程度,这可能会产生高度不稳定的后果。

本简报列出了为人工智能设想的各种军事应用,并强调了它们造成伤害的可能性。它认为,减轻军事人工智能系统带来的风险的建议必须基于确保人工智能系统始终处于人类监督之下的原则。

迄今为止,公众对人工智能和机器人技术进步所带来的社会变化和风险似乎知之甚少。这份简报的部分目的是为了敲响警钟。人工智能可以而且应该用于改善工作场所的条件和对公众的服务,而不是增加战争的杀伤力。

成为VIP会员查看完整内容
310

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
【AI+军事】附论文+PPT 《重新评估隐藏者-引导者问题》
专知会员服务
49+阅读 · 2022年4月16日
英国国防部《人类增强——新范式的黎明》,110页pdf
专知会员服务
32+阅读 · 2022年4月16日
人工智能: 国防部应改进战略、库存流程和协作指导
专知会员服务
39+阅读 · 2022年4月11日
人工智能对网络空间安全的影响
走向智能论坛
21+阅读 · 2018年6月7日
国家自然科学基金
268+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月17日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
VIP会员
相关VIP内容
【AI+军事】附论文+PPT 《重新评估隐藏者-引导者问题》
专知会员服务
49+阅读 · 2022年4月16日
英国国防部《人类增强——新范式的黎明》,110页pdf
专知会员服务
32+阅读 · 2022年4月16日
人工智能: 国防部应改进战略、库存流程和协作指导
专知会员服务
39+阅读 · 2022年4月11日
相关资讯
相关基金
国家自然科学基金
268+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员