有关军事人工智能(AI)系统的国际治理讨论经常强调透明度的必要性。然而,透明度是一个复杂的、多层面的概念,在有关负责任地使用人工智能的国际辩论和文献中,人们对它有不同的理解。它包括可解释性、可解释性、可理解性、可预测性和可靠性等方面。这些方面在国家确保系统透明和负责任的方法中的体现程度仍不明确,需要进一步调查。此外,在军事人工智能应用中实现透明度还面临一些挑战。首先,该技术固有的不透明性会使决策过程难以追踪和理解。其次,军事机构更有可能采取自愿性的透明措施,重点确保操作人员对系统功能有一个总体的了解,而不完全涉及问责的细微差别。此外,各国技术能力的差异表明测试和培训标准参差不齐,使对人的决策和问责的评估更加复杂。最后,鉴于国防和国际安全的敏感性,军事人工智能系统预计将保持高度机密,使外部评估变得困难。本文提出了克服这些挑战的途径,并概述了一个全面透明的框架,这对于在军事环境中负责任地使用人工智能至关重要。

在有关负责任地将人工智能用于军事目的的国际讨论中,透明度经常得到强调。透明度也是民用领域人工智能伦理原则的核心问题(Jobin、Ienca 和 Vayena,2019 年)。然而,透明度的概念差异很大。对一些政府来说,透明度意味着国家要披露一些有关各种系统的测试、评估和运作的信息。对另一些国家而言,这意味着军事人工智能系统必须对本国军队足够透明,并确保指挥官了解其运作情况,并能在这些系统产生错误或不可预测的输出时进行干预。因此,对透明度的理解通常是 “系统的可理解性和可预测性”(Endsley, Bolte and Jones 2003, 146; National Academies of Sciences, Engineering, and Medicine 2022)。然而,随着各国开始实施负责任的人工智能原则,这些对透明度的不同解释将变得更加重要,这仍然是一个挑战。这些原则对于确保军队负责任地使用人工智能和自主系统尤为重要。

在乌克兰和加沙等当代冲突地区的实践中,让军事指挥官了解人工智能系统的承诺已经受到挑战,原因在于技术的性质、现成技术的使用,以及缺乏明确的指导方针来说明需要在多大程度上了解人工智能系统。此外,对于正在使用的人工智能系统的类型和复杂程度及其如何运作,也缺乏更广泛的披露。值得注意的是,以色列国防军(IDF)在加沙使用的人工智能目标生成和决策支持系统引起了人们的关注,因为调查报告公布了这些系统的使用情况,导致人们对其功能产生了更多疑问(亚伯拉罕,2024;戴维斯、麦柯南和萨巴格,2023)。然而,以色列几乎没有提供关于这些系统如何运作的信息,而且该国一直辩称,它没有使用人工智能系统在没有人类参与的情况下自主选择目标(Varella 和 Acheson 2024, 5)。对有关以色列系统的报道感到震惊的人们认为这些保证并不充分。军事领域人工智能和自主系统的透明度还涉及到一定程度上获取系统信息的能力,理想的情况是让这些系统接受评估或审计,最好是由信誉良好的第三方进行评估或审计。这种广泛的评估和审计虽然可能在内部进行,但不太可能在外部进行。因此,需要创造性地制定全球层面的信息共享和建立信任措施。

在寻求建立对透明度的更深入理解,以满足国际管理机构以及技术和操作要求时,会出现几个问题。军事指挥官是否需要了解人工智能系统的每个节点是如何连接的?是否可能或需要足够深入的了解?人类操作员或作战人员对什么程度的理解才足以确保他们对人工智能系统辅助或执行的行动承担明确的责任?此外,各国政府之间需要共享哪些信息,以确保人们对负责任地使用人工智能和自主系统充满信心?

随着军队越来越多地在征兵、训练、后勤、设备维护、监视和瞄准等各种功能中使用人工智能系统,这些问题变得更加重要(Grand-Clément,2023 年)。不同的用途对透明度会有不同的要求,这些要求服务于不同的功能,并满足不同治理层面的道德和法律要求。对于某些用途,如招聘等被描述为 “后端 ”办公功能的用途,其要求将主要集中在确保公平和隐私,以及满足有关雇用个人的各种国内法律(Taddeo 等,2019 年)。在另一端,也是本文最关注的是高风险应用,如在与武力部署相关的决策支持中或在武器系统中使用人工智能系统,具有不同程度的自主性。这些要求将更加严格,需要符合内部和国家标准以及国际法律要求和管理机制。后一个问题虽然对国际安全尤为重要,但由于固有的安全考虑,仍然是最难解决的问题。

在全球范围内,人工智能和自主性军事应用的透明度面临几个关键障碍。首先,技术本身的复杂性,特别是随着系统变得越来越先进、不断学习和发展,确保其可理解性在实践中具有挑战性。关于系统在多大程度上需要可被人类解释和解读,以及部署系统的人员需要在多大程度上理解系统,目前正在进行积极的讨论。此外,人工智能的双重用途性质以及商业现成技术和工具的使用(如在乌克兰使用的情况),可能会引入未经国防背景充分测试的系统。其次,虽然军方更倾向于承诺采取透明措施,确保操作人员了解系统,但更广泛的透明度或允许对这些系统进行外部评估仍然具有很大的挑战性。第三,与此相关的是,出于国家安全的考虑,军事人工智能系统往往受到严密保护。这种保密性会阻碍各国分享有关各种系统能力的信息的意愿。这种趋势在对抗性较强的国家尤为明显,因为由于担心泄露机密技术可能为其他国家行为者提供技术优势,有关军事人工智能系统运作的透明度不太可能被共享。因此,透明度往往与国家安全相冲突(Etzioni,2018 年)。

本文探讨了实现军事人工智能系统透明度的可行性,明确了相关挑战,并提出了开发有效透明度机制的途径。本文首先探讨了透明度的不同定义,从技术理解到国际安全治理。然后讨论了这些不同的方法是如何在军事人工智能治理的讨论中出现的。根据这些不同的观点,本文提出了国际治理机制应考虑的全面透明度方法的要素。最终,在最令人关注的军事人工智能应用(如与使用武力有关的决策)中,透明度机制还需要一套分层的治理承诺和建立信任措施。这些措施应包括具有法律约束力的明确承诺、自愿措施和信息交流。最后,人工智能的许多军事应用很可能仍处于保密状态。然而,在对全球安全具有最重大影响的应用方面达到令人满意的透明程度,将大大加强全球稳定。

成为VIP会员查看完整内容
3

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《空战战术多智能体强化学习中的可解释性》最新报告
专知会员服务
50+阅读 · 2024年10月25日
《加速备战:国防可扩展性洞察》最新132页报告
专知会员服务
14+阅读 · 2024年8月20日
《计算力与人工智能治理》2024最新104页报告
专知会员服务
45+阅读 · 2024年2月29日
中文版《联合全域指挥与控制的机遇》2023最新报告
专知会员服务
191+阅读 · 2023年6月26日
《探讨未来军事技术的可能性》美国陆军2022最新52页报告
专知会员服务
91+阅读 · 2022年12月28日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
Arxiv
164+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
425+阅读 · 2023年3月31日
Arxiv
22+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关资讯
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
40+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
43+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员