山东科技大学副教授 赵丽莉
西安交通大学信息安全法律研究中心硕士生 郝静雯
4月10日,美国国会引入《2019年算法问责法案》(Algorithmic Accountability Act of 2019),旨在指导联邦贸易委员会(Federal Trade Commission,FTC)规范相关实体使用、存储或共享用于进行自动决策系统影响评估和数据保护影响评估的个人信息。根据该法案的界定,自动决策系统是指“一种来源于机器学习、统计或其他数据处理或人工智能技术的决策方法,它可以影响消费者的决策或促进人类的决策。”自动决策系统影响评估是指“评估自动化决策系统和自动化决策系统的开发过程(包括自动化决策系统的设计和培训数据)对准确性、公平性、偏见、歧视、隐私和安全性的影响”。数据保护影响评估是指“评估信息系统处理的个人信息的隐私安全水平。”
该法案主要规定FTC在法案生效后的两年内制定规则,强制要求相关实体针对高风险自动决策系统进行自动决策系统影响评估和数据保护影响评估,并明确了FTC在监管过程中的权力和责任。任何违反FTC相关规定的行为均将被视为非法行为。根据该法案的规定,受管制的实体范围非常广泛,包括受《联邦贸易法》管辖的任何个人、合伙企业或公司。该法案同时对相关实体的规模进行了限定,规定受管制的实体在最近一个财政年度之前的三个应纳税年度期间的平均年总收入超过五千万美元;或拥有或控制超过一百万消费者,或一百万消费设备。
资料来源:美国国会
简评:《算法问责法案》采用了影响评估的机制,对于自动化决策对于公平、歧视、偏见、隐私保护、数据安全等方面的影响进行评估,明确FTC作为算法评估的监管机构。采用影响评估这样的灵活动态机制,相较于直接要求算法公开、算法解释等,更有利于产业的发展,但是对于评估中关于歧视、偏见等的价值判断仍是难点。