美国皮尤研究中心深度调查:算法的傲慢与偏见!

2018 年 12 月 1 日 数据猿

导读

如果算法设计之初就带有偏见,那么,所谓的“算法中立”不过是对现有偏见和差异的掩饰,质疑,隐私泄漏、信息茧房等现象也让越来越多的人们对算法机制充满忧惧。

来源:腾讯传媒丨作者: 全媒派

数据猿官网 | www.datayuan.cn

今日头条丨一点资讯丨腾讯丨搜狐丨网易丨凤凰丨阿里UC大鱼丨新浪微博丨新浪看点丨百度百家丨博客中国丨趣头条丨腾讯云·云+社区

本文已获得腾讯传媒全媒派授权

用过去推演未来,真的成立吗?


当算法涌入生活,我们的各项行为都在无形之中受到算法的审度和指点:打开手机App,算法会为我们自动推荐新闻;打开购物网站,算法会为我们自动推荐商品;求职时,HR会借助算法来筛选候选人简历;问诊时,医生也会利用算法来估算病人患肿瘤的可能性……当我们在利用算法的时候,也不自觉地成为了被算法计算的对象。皮尤研究中心针对美国成年人的一项调查显示,伴随着算法的普及,公众正开始对“客观的”算法产生怀疑。

 

对于支持算法的人来说,算法能够在重要决策中减少人为干预,并提高决策的准确性;对于反对算法的人来说,算法在设计之初就已经带有决策者的偏见,所谓的“算法中立”,不过是对现有偏见和差异的掩饰。

 

调查结果显示,58%的美国成年人认为,算法不同程度地带有人为偏见。此外,还有公众担心算法的应用会对隐私造成侵犯、会无法捕捉到复杂情况中的细微差别、会将被评估者置于不公平的境地等。以上只是公众从宏观层面对算法的评价,从微观层面来看,公众也对应用于不同领域的算法持各异看法。本期全媒派(ID:quanmeipai)独家编译皮尤研究中心报告《算法面前的公众态度》(Public Attitudes Toward Computer Algorithms),直击大数据时代下的算法忧虑。

调查方法

该项调查于2018年5月29日至6月11日期间进行,对4594名美国成年人进行了随机访问。调查向受访者提供了四个依靠大数据和算法来进行决策的真实场景,四个场景分别为:

  • 利用算法对顾客进行消费信用评分,以决策交易折扣;

  • 利用算法对假释的人进行刑事犯罪风险评估;

  • 利用算法自动筛选求职者简历;

  • 利用算法对候选人面试进行分析。

 

此外,该项调查还包括对公众在社交媒体平台上接收到的推荐内容进行考察,具体包括对用户对于算法推荐内容和收集数据的情绪态度考察。

  研究发现

 第一部分:算法决策将如何影响我们的生活?


调查发现,有四成的美国民众相信算法是“中立”的,即算法能够做出不受人类偏见影响的决策。值得关注的是,年轻的美国民众更加支持“算法中立”观,有50%的18-29岁民众和43%的30-49岁民众认同这种观点,而在50岁及以上的民众中,仅有34%认同“算法中立”。

体研究结论如下:

 

1. 有相当多的美国民众认为,四个情景中的每一个都对被评估者不公平。

受访民众对于四个场景中算法决策的公平性普遍持怀疑态度,除评估刑事犯罪风险外,其他三个场景中,均有超过半数的受访者认为算法的决策并不是公平的。

 

2. 公众对于算法在不同场景下的决策有效性存在分歧

调查结果显示,公众对于算法是否能有效进行决策存在分歧。


  • 有54%的受访者认为,算法能够有效筛选出优质用户;

  • 近半数的受访者认为,算法能够在刑事犯罪风险评估和简历筛选上做出有效决策;

  • 有39%的受访者认为,算法能够在面试候选人时做出有效决策


由此可见,在个人消费信用评估这一场景中,公众对于算法决策有效性的判断相差了22%,具有较大分歧。


3. 在对现实生活将产生重要影响的情况下,公众对算法决策的公平性和可接纳性表示密切关注。

从调查结果上来看,多数人都认为利用算法进行决策时有违公平,只有约三分之一的受访群众认为,利用算法进行个人消费信用评分和简历筛选对消费者和求职者来说是公平的。


而在关于接受度的调查中,大多数美国人都认为,利用算法进行决策是不可接受的,其中,68%认为利用算法进行个人消费信用评分不可接受,67%认为利用算法进行面试决策不可接受,不可接受的理由主要如下:

 

  • 在不接受利用算法进行消费信用评分的人中,有26%认为这样做侵犯了隐私。

  • 在不接受利用算法来筛选简历的人中,有36%认为自动化流程模糊了招聘中的感性因素;在不接受利用算法来进行面试决策的人中,有16%持同样观点。

  • 人性的复杂决定了算法无法捕捉到每一个细微的差别,尤其是在利用算法进行刑事犯罪风险评估时,这一点显得尤为重要。


4. 对算法决策的态度在很大程度上取决于个人背景


尽管公众态度在一定程度具有一致性,但是从调查结果上看,公众的态度更有可能受到个人特征和背景的影响。这种影响主要体现在,公众对于利用算法来进行个人消费信用评估和刑事犯罪风险评估的态度上:


  • 对于以商家为主体进行代入的人来说,有54%的人认为这种方法能够有效筛选出优质客户;

  • 对于以消费者为主体进行代入的人来说,只有32%的人认为这种方法是公平的;

  • 同理,有人认为刑事犯罪风险评估对于警方来说是公平的,也有人认为这对申请假释的一方来说是公平的。

 

此外,公众对算法决策的态度可能因种族和民族而异。只有25%的白人认为,利用算法对个人消费信用评估对于消费者来说是公平的,持同样观点的黑人则有45%。类似地,有61%的黑人认为,利用算法来对假释者进行刑事犯罪风险评估是不公平的,但持同样观点的白人只有49%。


5. 大多数美国民众出于对数据隐私、公平性和决策有效性的整体考量,而拒绝利用算法进行决策。


多数美国民众认为,就调查中作为一种概念加以呈现,算法决策是可以被接受的,但是在实际生活中,他们并不欢迎这种决策方式。从数据来看,68%的受访者表示不会接受由算法进行的个人消费信用评估;67%的受访者表示无法接受求职机构使用算法对面试视频进行分析。

 

皮尤研究中心在调查的过程中,访问了美国民众接纳/不愿接纳算法决策的具体原因,数据隐私、公平性和决策有效性是最高频的三个影响因素。以下是美国民众对于四个真实场景中算法决策的看法,以及全媒派(ID:quanmeipai)精选的部分受访者发言:

消费信用评分

31%的美国民众认为,商家使用算法进行征信是可以被接受的,他们的主要看法是:在消费者已经将相关数据公开的情况下,其无权干涉商家的行为,以及征信是商家的自由选择等。例如:


 “我相信商家可以借助现代化技术来判断一个人的财务能力及消费信用,而不是只通过他/她是否按时支付了信用卡账单。”(男,28岁)


“这听起来类似于信用卡积分,虽然不是很公平,但是还可以接受。”(女,25岁)


“这能够有效地向商家提供信息,以便其将服务和产品与消费者进行匹配。这是件好事。既简化了流程,又降低了调查成本,同时能够使今后的广告投放更具针对性。”(男,33岁) 

 

68%的美国民众表示,不接受商家使用算法进行征信,他们的主张是:数据的收集会侵犯消费者的隐私,在线数据并不能很准确地反映一个人的财务状况和信誉,以及算法评分可能带有偏见和歧视等。例如:


“它侵犯了消费者在网上自由活动的权利,一旦采用算法进行消费信用评估,人们将不得不隐藏自己的消费行为和购买记录,这是一种无形的‘监控’。”(女,27岁)


“我认为商家在未经我的允许下征用我的个人信息时不公平的,哪怕它是为了给我提供优惠,我也无法接受。”(女,63岁)


 “算法不可避免地带有偏见,人们在设计算法之初已经确定了数据间的相关性,一旦这样的算法被执行,消费者将没有任何为自己辩白的余地。”(男,80岁)

刑事犯罪风险评估

42%的美国民众认为,使用算法进行刑事犯罪风险评估是可以被接受的,他们的主要看法是:这将帮助司法系统在进行决策前获取更多信息,算法可能会比现行的制度更加公平,将算法评估作为决策过程中的一部分是可以接受的。


此外,支持者们的出发点也各不相同,有9%的美国民众认为利用算法进行刑事犯罪风险评估为罪犯们提供了重新融入社会的机会,而另外6%支持该算法决策的民众则认为,此举将确保将有潜在危险的罪犯留在狱中,提高社会环境的安全性。具体观点如下:


“虽然算法存在缺陷,但是当前的决策方式存在更多缺陷。”(男,42岁)


“当下,大多数假释决策都是主观的,算法为我们提供了采用客观标准来进行量化决策的可能性。由于主观偏见影响,许多黑人在入狱后都不会得到假释,但是应用算法后,这些少数族裔将得到更加公平的对待。”(男,81岁)

 

56%的美国民众表示,不能接受以算法来评估形式犯罪风险,他们主张:算法难以捕捉到人类的细微差别,不会将嫌疑犯或罪犯的个人成长经历纳入考量,人类参与缺失也可能会导致最终决策有失公允。具体观点如下:


“应当把‘人’当成独立的个体去对待,而不是基于大众的信息去进行模糊化的决策。即使两个人有相同的信仰或兴趣,这两个人也是截然不同的。”(女,71岁)


“大数据通常存在难以被纠正的缺陷,作为一名数据科学家,我必须坦诚,算法无法洞察一个人的灵魂。”(男,36岁) 

面试表现分析

32%的美国民众认为利用算法对求职者的面试表现进行分析是可以被接受的,他们认为,公司有权利选择最合适的雇佣者,算法只是辅助公司进行考察的一种工具,此外,算法可能比传统的人力更加客观。具体观点如下:


“在快节奏的现代社会中,利用技术来提高劳动力雇佣效率十分重要。”(男,71岁)


“在求职者认同的前提下,我认为借助算法来分析面试表现是可以被接受的。为了聘用到合适的员工,企业往往需要投入大量的人力和物力成本,算法将是一个有用的工具。”(女,61岁)


“在面试中使用算法是没问题的,但是如果将算法分析的结果作为最终的决定因素,则有些荒谬。因为求职者在面试中往往会感到紧张,这会影响其真实水平的发挥。”(男,23岁)

 

67%的美国民众不支持利用算法对求职者的面试表现进行分析。反对方最核心的论点是他们认为算法并不能够胜任人才选拔工作,具体表现在应该由“人”来对对方做出评价,借助算法是对求职者的不尊重,以及算法可能会忽视在非常规领域有才能的候选者。具体观点如下:


“在算法的分析下,那些不具有明显特征和优势的求职者很可能被轻率地淘汰了。”(女,57岁)


“如果雇主想要雇佣的是一个鲜活的‘人’,而非机器人,那么面试就应该建立在人与人面谈的基础上。”(女,61岁)

自动筛选求职者简历

41%的美国民众认为可以接受雇主使用算法来筛选简历,因为这样做可以节约大量的时间和金钱,基于客观标准的算法也将比人工筛选简历更为公正和准确。此外,公司可以通过对算法的调整来快速定位到自己想要雇佣的人才。具体观点如下:


“你有没有尝试筛选几百份简历?算法可能不完美,但是它效率很高。”(女,65岁)


“虽然自己不会尝试,但是我可以接受公司采用这样的方法来筛选简历,在不涉及歧视的情况下,公司有权选择任何筛选方法。”(男,50岁)

 

57%的美国民众不支持利用算法来筛选求职者简历。他们的忧虑主要围绕三个方面展开:第一,这是对人力资源管理人才工作职责的侵蚀;第二,无法确保算法的公正性和有效性,雇主可能会错过最合适的候选者;第三,简历并不是评价候选者的唯一标准。具体观点如下:


“专业的人力资源管理人才将无处施展才华,会不会有一天HR们的简历也被算法踢在一边?”(女,72岁)


“算法将使公司错过优秀的候选者,并且会使员工队伍越来越同质化。”


“这听起来就像是一场标准化的入学考试,算法和SAT、ACT相比又有什么区别呢,最终选拔出来的并不是真正有潜力的人,而是那些经过大量的时间和金钱‘训练’出的人。”(男,64岁)

第二部分:算法如何塑造我们在社交媒体上所浏览的内容?


当前,算法正深刻地塑造着社交媒体格局,即算法可以根据用户的行为来推测出其最喜欢的内容类型,公众的新闻阅读习惯在很大程度上由“主动寻找”转变为了“被动接纳”。这一现象已经引起了学界和社会对于信息茧房和回音廊效应的广泛担忧。


调查结果显示,74%的美国民众认为,社交媒体上的内容已经无法客观反映公众对于社会议题的看法,也就是说,社交媒体已经无法代表公众舆论。具体来看,持这一观点的以白人和老年人居多,黑人和西班牙族裔,以及年轻人对社交媒体的信赖度略高一些。

具体研究结论如下:

 

1. 用户在社交媒体上浏览到的内容,是积极与消极的混合体。

 

在对社交媒体内容的情感态度调查中,有88%的用户表示会在网站上浏览到一些有趣的内容,娱乐是他们浏览此类内容的最重要原因。

 

此外,调查结果表明,用户经常在以算法为内容分发机制的平台上阅读到不合适的内容。71%的受访者表示,自己曾被推荐过令人感到愤怒的内容,其中,有25%的受访者表示自己经常被推送此类内容。此外,约有六分之一的用户表示自己曾被推荐阅读过含有夸大事实和虚假内容的新闻。

 

但是,也有21%的受访者表示,自己经常会接收到与好友相关的内容,这让他们感到“与好友产生了联结”。

2. 年龄和政治立场都是影响用户内容情感态度的重要因素

 

研究表明,相较于年龄在65岁及以上的老年用户,年轻人们认为由算法推荐的媒体内容更为有趣。有54%的年轻用户认为,由算法推荐的内容非常有趣,而在老年用户中,这一比例仅为30%。此外,年轻人也更容易接收到令自己感到孤独的内容。

 

此外,“愤怒”是国会议员们对社交媒体内容的最常见情绪反应。31%的保守派共和党人表示,他们经常因为社交媒体上的内容感到愤怒,在自由派民主党中,这一比例为27%,温和派民主党的比例则为19%。

3. 在事实真相落定之前,用户经常会在社交媒体上浏览到不实信息和激烈争论

 

调查结果表明,用户经常在社交媒体上接触到两种类型的内容:第一类是带有炒作性质或夸大性质的不实信息,有58%的受访者表示自己经常能够看到此类内容;第二类是意见不同的双方就某件未有定论的事情进行激烈的争论和交锋,有59%的受访者表示自己经常看到此类内容。此外,还有相当比例的用户表示自己经常在平台上看到话题错位的帖子和回复,这类内容可以被归纳为无用信息。总体来说,认为自己能够在社交平台上获取到有用信息的用户,不足五成。

4. 在浏览内容的过程中,用户也会感受到来自他人积极或消极的行为。

 

大约有一半的受访者表示,自己能够在社交媒体上感受到他人所传递的积极或消极的行为。其中,21%的受访者表示,自己经常看到善意的示好或是支持;24%的受访者则表示,更多地感受到的是人们的自私与网络欺凌。

 

皮尤研究中心此前的一项研究显示,男性比女性更容易在平台上遭遇骚扰或霸凌行为,在此次调查中,也有更多的男性佐证了这一观点。有29%的男性认为,社交平台上更多地充斥着自私与网络欺凌行为,而女性持这一观点的只有19%。另一方面,这也显示了女性在社交平台上,更多地接收到的是善意的观点和行为。

 

此外,在假新闻的传播问题上,18%的受访者表示更多地看到的是对假新闻的传播,17%的受访者表示更多地看到的是对假新闻的纠正。同时,男性被指责更多地参与了假新闻的传播,因为男性用户往往更具欺骗性。

5. 平台的数据应用流向将在很大程度上影响用户在共享个人信息时的“舒适度”。

 

75%的受访用户表示,如果网站确实能够推荐一些令自己感兴趣的活动或信息,他们很乐意与网站分享个人的部分数据。而如果用于与政治相关的活动,则只有37%的受访用户愿意分享个人信息。

 

此外,年龄也将影响公众对于算法收集个人数据的看法。例如,在50岁及以下的社交媒体用户中,有三分之二的人认为,系统可以抓取用户的个人信息用以推荐好友;而在65岁及以上的社交媒体用户中,这一比例不足50%。


▲向上滑动


采访/报道/投稿

yaphet.zhang@datayuan.cn


商务合作

18600591561(微信)



长按右方二维码

关注我们ˉ►


登录查看更多
0

相关内容

基于深度学习的多标签生成研究进展
专知会员服务
142+阅读 · 2020年4月25日
【中科院信工所】视听觉深度伪造检测技术研究综述
专知会员服务
40+阅读 · 2020年4月15日
广东疾控中心《新型冠状病毒感染防护》,65页pdf
专知会员服务
18+阅读 · 2020年1月26日
【NeurIPS2019报告推荐】公平与表示学习—UIUC Sanmi Koyejo教授
【课程】概率图模型,卡内基梅隆大学邢波
专知会员服务
69+阅读 · 2019年11月4日
美国国会引入《2019年算法责任法案》
蚂蚁金服评论
66+阅读 · 2019年6月13日
【专题】美国隐私立法进展的总体分析
蚂蚁金服评论
11+阅读 · 2019年4月25日
泰国通过个人信息保护法
蚂蚁金服评论
16+阅读 · 2019年4月3日
【专题】Facebook遭德国反垄断调查及其影响分析
蚂蚁金服评论
17+阅读 · 2019年4月1日
2018年瑞幸咖啡深度分析报告
行业研究报告
14+阅读 · 2019年2月3日
AI 和机器学习中暗含的算法偏见 | Linux 中国
Linux中国
3+阅读 · 2018年4月14日
Gartner:2018人工智能预测
走向智能论坛
4+阅读 · 2017年11月28日
美国硅谷预测10年后的世界,再不懂你就落伍了
凤凰财经
4+阅读 · 2017年9月14日
Compositional Generalization in Image Captioning
Arxiv
3+阅读 · 2019年9月16日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
6+阅读 · 2018年11月29日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
7+阅读 · 2018年2月26日
Arxiv
7+阅读 · 2018年1月18日
VIP会员
相关资讯
美国国会引入《2019年算法责任法案》
蚂蚁金服评论
66+阅读 · 2019年6月13日
【专题】美国隐私立法进展的总体分析
蚂蚁金服评论
11+阅读 · 2019年4月25日
泰国通过个人信息保护法
蚂蚁金服评论
16+阅读 · 2019年4月3日
【专题】Facebook遭德国反垄断调查及其影响分析
蚂蚁金服评论
17+阅读 · 2019年4月1日
2018年瑞幸咖啡深度分析报告
行业研究报告
14+阅读 · 2019年2月3日
AI 和机器学习中暗含的算法偏见 | Linux 中国
Linux中国
3+阅读 · 2018年4月14日
Gartner:2018人工智能预测
走向智能论坛
4+阅读 · 2017年11月28日
美国硅谷预测10年后的世界,再不懂你就落伍了
凤凰财经
4+阅读 · 2017年9月14日
相关论文
Compositional Generalization in Image Captioning
Arxiv
3+阅读 · 2019年9月16日
Music Transformer
Arxiv
5+阅读 · 2018年12月12日
Arxiv
6+阅读 · 2018年11月29日
Arxiv
11+阅读 · 2018年5月13日
Arxiv
7+阅读 · 2018年2月26日
Arxiv
7+阅读 · 2018年1月18日
Top
微信扫码咨询专知VIP会员