大量的学术文献描述了无数的攻击载体,并表明美国国防部(DoD)的大多数人工智能(AI)系统一直处于危险之中。然而,兰德公司的研究人员调查了旨在隐藏对象(导致算法假阴性)的对抗性攻击,发现许多攻击在操作上是不可行的,因为知识要求高,攻击载体不实用,所以设计和部署不可行。正如研究人员在本报告中所讨论的那样,有一些屡试不爽的非对抗性技术,其成本更低,更实用,而且往往更有效。因此,针对人工智能的对抗性攻击对国防部应用构成的风险比学术研究目前所暗示的要小。然而,精心设计的人工智能系统以及缓解策略,可以进一步削弱这种攻击的风险。

关键发现

  • 旨在从人工智能中隐藏物体的对抗性攻击对国防部应用构成的风险比学术研究目前所暗示的要小。
  • 在现实世界中,由于高知识要求和不可行的攻击载体,这种对抗性攻击很难设计和部署;通常有成本更低、更实用、更有效的非对抗性技术可用。
  • 融合不同传感器模式、信号采样率和图像分辨率的数据和预测,可以进一步减轻针对人工智能的对抗性攻击的风险。

建议

  • 美国防部应通过考虑对手如何可行地影响模型来评估其人工智能模型在对抗性攻击方面的风险。它还应该评估有关模型的知识泄露如何影响攻击的有效性,并估计与对手行动相关的成本。
  • 美国防部应保持对学术界最先进的技术的了解,以在现实世界的场景中攻击人工智能,并了解这些技术如何可行地影响自己和对手的操作概念。
  • 美国防部应开发强大的人工智能模型、预处理技术和适当的数据融合系统,以大大增加对手实施攻击的资源成本。
  • 美国防部应投资于人工智能系统的响应性支持团队,以快速检测、识别和回应对手的威胁。

成为VIP会员查看完整内容
64

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《 美国国防部:反小​​型无人机系统战略》38页报告
专知会员服务
198+阅读 · 2022年8月12日
《军事行动自动化》【译文】2022最新报告
专知
44+阅读 · 2022年11月13日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
88+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年2月27日
Arxiv
0+阅读 · 2023年2月25日
Arxiv
22+阅读 · 2022年3月31日
Arxiv
30+阅读 · 2021年7月7日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
已删除
Arxiv
31+阅读 · 2020年3月23日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
23+阅读 · 2018年10月24日
VIP会员
相关VIP内容
《 美国国防部:反小​​型无人机系统战略》38页报告
专知会员服务
198+阅读 · 2022年8月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
88+阅读 · 2009年12月31日
相关论文
Arxiv
0+阅读 · 2023年2月27日
Arxiv
0+阅读 · 2023年2月25日
Arxiv
22+阅读 · 2022年3月31日
Arxiv
30+阅读 · 2021年7月7日
Attentive Graph Neural Networks for Few-Shot Learning
Arxiv
40+阅读 · 2020年7月14日
已删除
Arxiv
31+阅读 · 2020年3月23日
Position-aware Graph Neural Networks
Arxiv
15+阅读 · 2019年6月11日
Arxiv
23+阅读 · 2018年10月24日
微信扫码咨询专知VIP会员