2022年7月,乔治敦大学安全与新兴技术中心(CSET)和斯坦福大学网络政策中心的地缘政治、技术和治理项目召开了一次专家研讨会,研究人工智能系统的漏洞与更传统类型的软件漏洞之间的关系。讨论的主题包括:人工智能漏洞在多大程度上可以根据标准网络安全程序进行处理,目前阻碍准确分享人工智能漏洞信息的障碍,与人工智能系统的对抗性攻击有关的法律问题,以及政府支持可以改善人工智能漏洞管理和缓解的潜在领域。
参加研讨会的人员包括担任网络安全和人工智能红队角色的行业代表;具有进行对抗性机器学习研究经验的学者;网络安全监管、人工智能责任和计算机相关刑法方面的法律专家;以及负有重要人工智能监督职责的政府代表。
本报告旨在完成两件事。首先,它提供了一个关于人工智能漏洞的高层次讨论,包括它们与其他类型的漏洞不相似的方式,以及关于人工智能漏洞的信息共享和法律监督的当前状况。其次,它试图阐明研讨会上大多数与会者所认可的广泛建议。这些建议分为四个高层次的主题,具体内容如下:
1.主题:为人工智能漏洞扩展传统的网络安全
1.1. 建议:构建或部署人工智能模型的组织应使用一个风险管理框架,解决整个人工智能系统生命周期的安全问题。
1.2. 建议:恶意机器学习研究人员、网络安全从业人员和人工智能组织应积极尝试扩展现有的网络安全流程,以涵盖人工智能漏洞。
1.3. 建议:对抗性机器学习领域的研究人员和从业人员应与处理人工智能偏见和稳健性的人员以及其他具有相关专业知识的社区进行磋商。
2.主题: 改善信息共享和组织安全心态
2.1. 建议:部署人工智能系统的组织应追求信息共享安排,以促进对威胁的理解。
2.2. 建议:人工智能部署者应强调建立一种安全文化,在产品生命周期的每个阶段都嵌入人工智能开发中。
2.3. 建议:高风险人工智能系统的开发者和部署者必须将透明度放在首位。
3.主题:澄清人工智能漏洞的法律地位
3.1. 建议: 拥有网络安全权力的美国政府机构应澄清基于人工智能的安全问题如何适应其监管结构。
3.2. 建议: 目前没有必要修改反黑客法来专门解决攻击人工智能系统的问题。
4.主题: 支持有效研究以提高人工智能安全
4.1. 建议: 攻击性机器学习研究人员和网络安全从业人员应寻求比过去更紧密的合作。
4.2. 建议: 促进人工智能研究的公共努力应更多地强调人工智能安全,包括通过资助可促进更安全的人工智能开发的开源工具。
4.3. 建议: 政府政策制定者应该超越标准的制定,提供测试平台或促成审计以评估人工智能模型的安全性。