通用人工智能的快速发展引发了人们对 “红队”的极大兴趣。“红队”是一种对抗性测试实践,起源于军事和网络安全应用。人工智能 “红队 ”引发了许多有关人为因素的问题,例如如何选择 “红队 ”成员、测试过程中的偏见和盲点,以及有害内容对 “红队 ”成员的心理影响。越来越多的人机交互和 CSCW 文献对相关实践进行了研究,包括数据标记、内容节制和算法审核。然而,对 “红队 ”本身进行研究的文献却寥寥无几。本次研讨会旨在探讨与这种做法相关的概念和实证挑战,这种做法往往因保密协议而变得不透明。未来的研究可能会探讨从公平性到心理健康和其他潜在危害领域的各种主题。目标是促进研究人员和从业人员组成一个社区,开始以创造、创新和深思熟虑的方式应对这些挑战。
本研讨会旨在概述人工智能红队的实践,借鉴历史经验,了解其发展轨迹和结构。将优先了解参与人工智能红队的人类,以及他们的角色如何影响人工智能系统的开发。此外,我们还试图利用过去的研究来解决安全问题,并确定与分析红队实践相关的学术学科和方法。我们将重点关注以下主题:
(1) 红队的概念化:受罗伯特-索登及其同事[24]将 CSCW 立足于历史的论点启发,我们旨在了解红队作为一种社会技术合作实践的发展轨迹。这一主题邀请与会者深入讨论红队协作的复杂性,并思考在这一领域开展研究的影响[18]。什么是 “红队”?“红队”的概念是如何随着时间的推移而演变的?红队在更广泛的负责任人工智能框架中扮演什么角色,分散或外部方法如何促进其有效性?
(2) 红队的劳动:这一主题探讨了人工智能红队的人文方面,调查了参与实践的利益相关者及其对塑造人工智能系统的影响,为未来的实践和政策提供信息。通过研究红队实践中涉及的劳动安排和权力动态(例如,技术劳动组织实践中的不平等[23]),我们试图发现历史上的相似之处和当代的方法论,以阐明红队人员的角色和运作框架。历史先例能为我们提供哪些关于红队作为一种劳动实践的启示?我们如何运用多种方法来研究红队人员的劳动结构,包括招募程序和制度承诺?
(3) 红队队员的福祉和伤害:在劳动主题的基础上,本主题重点关注红队队员的安全和福祉。我们将确定战略和干预措施,以减轻红队活动期间接触有害内容可能造成的伤害。通过解决这些关键问题并结合优先考虑工人福利的建议(如 [19]),我们旨在人工智能红队社区内培养一种福利文化。组织如何建立保障措施并设计干预措施,以保护红队人员免受潜在伤害?如何实施这些战略,以确保红队人员在工作中的安全和福祉?