人工智能(AI)以及机器学习和深度学习的相关技术正在进入我们的生活:人工智能驱动的智能对话系统和智能手机简化了日常生活,基于人工智能信号处理和控制的自动驾驶汽车提高了自动化水平,人工智能被认为是第四次工业革命的基石之一。然而,在人工智能变得越来越强大和广泛应用的同时,也必须考虑其对人类及其福祉的影响。因此,仅从技术上让人工智能解决特定任务已不再足够。人工智能的使用必须遵循人类价值观和伦理原则。这不仅适用于人工智能的一般应用,而且与军事应用尤为相关。在本白皮书中,将分析和讨论如何在军事场景中负责任地使用人工智能,同时遵守道德和法律准则。在第 2 节中,首先回顾了现有文献,这些文献广泛讨论了负责任的人工智能在民用和军用领域的道德准则。在这些研究成果的基础上,得出了一套综合的伦理原则,反映了对在军事应用中整合人工智能辅助功能的伦理合规性的看法。

相关工作,尤其是军事领域的相关工作,目前主要集中在这一主题的理论考虑上[4, 23]。不过,在第 3、4 和 5 节中,我们描述了三个具体的使用案例,在这些案例中,人工智能辅助功能被用于军事应用。在描述每个具体场景的同时,我们还从技术角度说明了基于人工智能的功能在当前最先进技术下的可行性。此外,我们还将得出的伦理原则映射到人工智能系统的具体观察和建议以及与用户的互动中,如人在环中原则和人在环上原则。在第 6 节中,我们得出结论:人工智能辅助系统的精心设计和开发,加上适当的可解释人工智能(XAI)集成方法,可以为人类用户提供实质性支持,并与伦理原则保持一致。特别是在军事应用中,“回路中的人 ”仍应是最终和唯一的决策者。

美国国防部制定的人工智能伦理原则

美国防部强调的五项道德原则基于人工智能的责任性、公平性、可追溯性、可靠性和可治理性。下文将对这些原则作进一步定义。

负责任:负责任地使用人工智能系统要求人类在这些系统的开发、部署、使用和结果的整个过程中做出适当程度的判断并承担相应的责任。这意味着个人必须承担责任,确保人工智能系统不伤害人、不破坏财产、不违反伦理、法律或道德原则。这不仅需要专业技术知识,还需要深刻理解人工智能对社会、文化和伦理的广泛影响。

公平:在开发和部署人工智能系统时,必须确保这些系统不会对个人或群体造成意外伤害。这就要求在开发和部署作战或非作战人工智能系统时,采取审慎措施,避免意外的偏见和歧视。这意味着要确保这些系统是在不同的数据集上开发和训练的,并且不会使现有的偏见或成见永久化。这还需要对这些系统进行持续监测和评估,以确保它们不会对人类造成伤害。

可追溯:人工智能工程学科必须足够先进,以便技术专家对人工智能系统的技术、开发流程和操作方法有适当的了解。这包括透明和可审计的方法、数据来源以及设计程序和文档。人工智能系统的可追溯性对于了解其运行方式、识别潜在风险和漏洞以及确保其符合道德和法律要求至关重要。

可靠: 人工智能系统必须在其定义的使用领域内的整个生命周期内都是可靠、安全、有保障和稳健的。这意味着这些系统必须经过设计和测试,以便在预期和意外条件下执行其预期功能。这需要进行严格的测试和评估,以确保这些系统的安全可靠,并识别和降低潜在的风险或漏洞。人工智能系统的可靠性对于确保其准确有效地执行预期功能,同时不对个人或财产造成伤害至关重要。

可治理: 人工智能系统的设计和工程设计必须能够实现其预期功能,同时具备检测和避免意外伤害或破坏的能力。这就要求系统能够由人类和自动化系统进行有效管理。这包括以下能力:(1) 监控已部署的人工智能系统的行为;(2) 在这些系统出现意外升级或其他不受欢迎的行为时,使其失效或脱离。人工智能系统的可治理性对于确保其在道德和法律界限内运行,不对个人或群体造成伤害至关重要。

成为VIP会员查看完整内容
26

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《武器系统中的人工智能》2023最新100页报告
专知会员服务
139+阅读 · 2023年12月13日
《在国防中实现负责任的人工智能》2023最新报告
专知会员服务
45+阅读 · 2023年2月22日
专知会员服务
67+阅读 · 2021年5月29日
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
34+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
439+阅读 · 2023年3月31日
Arxiv
158+阅读 · 2023年3月24日
Arxiv
22+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2017年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
34+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员