虽然我从谷歌工作的经历中学习并成长了很多,但在过去四年半我从事的 Cloud AI 和行业解决方案相关的工作中,之前积累数十年的产品和上市战略技能才是关键。虽然谷歌的经历本身就是一段迷人的旅程,但它应该不会改变我的人生才对。
可是我的人生确实改变了。
在谷歌担任的职位上,身为女性的我在由男性主导的各种环境中经历的那些事情,以及我的那些迂回曲折的职业道路——如果有人要我“分享一个关于你自己的有趣事实”,这些曲折的故事我讲都讲不完——交汇融合在了一起。我的人生使命随之浮现而出:负责任的人工智能。
在这个职位上,我发现自己正在重拾当年攻读性别研究、性和教育心理学学位时学到的知识,并以全新的视角深入审视自己在学生时代学习的那些由无与伦比的 Carol Gilligan 讲授的精彩课程。当我们团队试图从单词和故事的表象中挖掘意义、理解和归属感时,我翻出了自己当年向初中和高中生教授文学课程的教案。当初我让孩子们沉浸在大自然中、学习传统野外技能并参与社区建设,并在这一过程中学到了同理心是如何诞生的,而今天我又重温了那段经历。我回顾了自己初探人类学民族志研究的那些时光。我回忆起了从斯坦福的设计学院学习的那些以人为本的设计课程。所有这些往事突然就展现出了它们的意义所在,让我倍感受用。
在构建先进技术时将人类的全方位经验放在第一位的做法是非常鼓舞人心的,也极具复杂性和挑战性,而且每一天的探索都极富价值。每次我们勇敢地接受复杂性的挑战,并设法在使用技术时诚实面对问题、考虑道德约束并承担应有的责任,我们获得的收益都是极为可观的。当我们正确地做到这一点时,我们的思路就会大大拓宽,并且会明白以前基于局限的视野划定的那些责任界限已经没意义了。我们意识到,为了构建最先进、创新、安全、稳健和成功的技术,我们需要深入探索社会技术领域。我们需要诚实地面对自己可能还没有意识到的那些盲点,之所以会存在这些盲点,就是因为我们的世界先入为主地规定了哪些东西是“正常的”,哪些又是“另类的”。就算我们有时候真的不喜欢自己研究出来的成果,也必须要面对它们。当我们这样做的时候,我们就可以,而且将会改变现状。
当我在 2017 年 9 月加入 Cloud AI 团队时,我的第一个自选项目是找到一种有意义的方法来评估 AI 作为产品开发中不可或缺的一部分时产生的长期影响。我知道这一研究需要以一系列核心价值观为基础,而我找到的那些对我们的组织至关重要的价值观——勇气、诚信、同情心和影响力——为我在 2018 年初开始测试的一套评估流程奠定了基础。这一流程最后发展成为了 Cloud 在实施谷歌的 人工智能原则 时的治理流程。
这些 流程 中蕴含着那些让我最自豪、最好奇、最能体现我的同情心和勇气的工作成果。在过去的四年半里,我一次又一次地证实了 Cloud 在 2017 年一开始所假设的理论——负责任的人工智能是成功的人工智能的不可分割的一部分,是后者的代名词。
我没想过自己的运气会那么好,竟然一开始入职的几个月就能与天才的 Shannon Vallor 一起共事,他帮助我们将我们的流程改进为一个系统的、可重复的和健壮的框架。Shannon 教会了我如何勇敢地参与关于技术伦理和责任的交流活动,同时与不会打断我关键发言的那些人见面。
我非常感谢从事负责任创新、机器学习公平性和可解释性领域工作的许多杰出同事,以及谷歌人权和民权团队的英勇努力——他们帮助我们做了很多事情,尤其是将关键的 外部人权影响评估 的工作纳入正轨;我也非常感谢不知疲倦的公共政策和全球标准团队帮助我们将负责任的人工智能理念带到我认为将是我们这个时代最关键的一些政策的前沿;我还感谢那些 对我们的任务至关重要 的社会科学家、技术伦理学家和人权研究人员,他们的知识和观点是人工智能需要接纳的,也是成功之路不可或缺的。
要感谢的人太多了,到现在才轮到我自己的团队。是的,我们拥有有史以来最长的团队名称(Outbound Product Management、Engagements & Responsible AI—aka OPERA)。但如果我需要将我们世界的未来托付给什么人的话,那我肯定选这个团队——这里我的确有些偏心了,但我的想法就是这样。对不起,制定规则的不是我。
我也永远感谢两位曾经是我最重要老师的女性:Meg Mitchell 和 Timnit Gebru。我仍然对她们离开谷歌的那段故事感到很心痛,在过去的一年里我非常想念她们。我知道我的沉默伤害了她们,我当初为了支持她们俩而拼命尝试的一些做法也让她们受伤了。我也知道自己有意做出了一些选择,并且我也有自己的理由。尽管过去直到现在都太不容易了,但我并不后悔那些完全是我个人做出的选择。我也很抱歉。我认识到选择的能力是一种特权,虽然我知道自己可以正视那些选择中蕴含的自信和遗憾,甚至对我自己在幕后所做的那些事情而骄傲,但我也知道自己还有很多东西需要学习。最后,这些女性带给我的经历让我正视自己是否到了应该离开谷歌的时候了,并且不管前方等待我们的是怎样的未来,我都会珍视那些她们在与我共事、共克逆境时直接或间接地教会我的那些课程。在我的职业生涯中,我将继续向她们两人学习。
Rajen Sheth,你是无与伦比的,永远都是。
我作为 Uncommon Impact Ventures 的创始合伙人开始了自己人生的下一篇章,在这里我会做很多事情,主要是构建一个与负责任技术相关的实践。与此同时,我想分享一些经验教训和真相,它们也代表了我对任何参与这一领域工作的组织(包括谷歌在内)的殷切期望。
仅仅做到技术卓越是不够的。人工智能属于 社会技术 门类——意味着这种技术不能与人类和人类创造的流程分离开来,这些流程为其提供信息,并会塑造和发展其用途。说实话,大多数 AI 系统都建立在人类社会的许多个体部分(即数据)之上。这些数据建立在历史悠久(一直到现在)的大量信息的基础之上,并体现了这些历史中的社会系统、权力动态和人类选择的信息。人类告诉人工智能它看到的都是什么东西,然后人工智能试图将其与当前的真实世界信息相匹配。能配对的时候,成功了!如果没有,系统就会失败。如果系统缺失或无法看到很多人类社会的数据,系统就会持续且密集地失败。这就会造成严重后果。
公平是上下文相关的。我们需要为 AI 的每一种应用都定义公平的含义。当你这样做时,你就会意识到自己可能会造成怎样的严重后果,只有这样你才能做出正确的选择。然后,你可以构建最佳方案,创造最大的价值、利益和(这是附赠的!)可衡量的影响。顺便说一句,这就是工具链的用武之地——它本身并不是一个解决方案。
没有积极的伤害纠正的话,就不会有突破性的进展。即使你做了可靠的评估,如果你不努力解决数据中不可见和信息缺失的问题,那么仅针对历史数据的任何缓解措施充其量都是在打补丁。对你能看到的东西进行渐进式的改进,再加上对你看不到的东西所施加的无可挽回的伤害,合在一起造成的恶果和产生的高昂成本是惊人的,所以你就应该在工作一开始就做好评估和修正。
改变是不可避免的。人工智能的创新速度今天还是要比摩尔定律更快。即使技术变革的速度放缓了,社会变革也不会放慢脚步。几年前的一个选择可能让人觉得是可以接受的,但这 并不意味 着它会永远如此。我们需要以终身学习者的谦逊态度和好奇心来使用先进技术。在企业技术领域,这可能会引发人们深深的焦虑情绪,但我发现向客户说明这种复杂性会增加而不是削弱我们之间的信任关系。
人工智能是容易犯错的。人工智能不是魔法;它是数学。因为数学包含了人工智能的社会技术性质,所以它并不总是正确的。起码长期来看它总会犯错。这就是为什么人工智能不应该成为决策的唯一或主要基础,尤其是当这些决策会对人类、社会或环境产生重大影响时更是如此。更进一步说,在这些情况下,只有“一个人参与决策流程”是不够的。有效的人工控制 和 多种信息来源 是引导决策流程的关键要素。
重点在于写下你在使用先进技术时遵循的价值观,但光是这样还不够。你需要通过清晰、可重复和专门的治理流程来实现这些价值观。对流程的承诺还解决了两个关键挑战。
首先,一个既定的流程可以将个人信仰的影响从关键层面排除掉。在我们的审查中,听取和分享个人生活经验有助于委员会分辨具体的危害或机遇,这些知识为我们针对每项 AI 原则的评估流程提供了依据。然后,这一流程会应用一些防护措施,以确保输入能通过我们的分析实现语境化。
其次,如果没有要求相关人员始终遵循的可重复流程(这并不意味着它是静态的——它应该适应新的信息和现实,它只需要在更新时经过审批即可),那么如果什么事情出了问题,就太容易对你的信誉造成风险了。
这可能会令人担忧,但我真的认为没有必要过于纠结。你永远不会看到人们对评估结果取得一致认可(我认为这应该是一个非目标)。在我看来,崇高的目标应该是让人们清楚地了解这个流程和你对它的承诺。这有助于人们对评估的方式、所考虑的内容以及你为符合章程、减轻危害和实现机遇而采取的行动达成共识。这样一来,人们对结果会有分歧,但也会一致认同这一流程始终是完整的、深思熟虑的和以行动为导向的。需要明确的是,透明并不意味着总是共享所有内容。并非所有信息都是可共享的,也不是所有信息都是有意义的。
事情就是这样。如果我们有了正确的流程,但缺乏透明度,就会给怀疑创造最适宜的滋生土壤。
在缺乏有意义的透明度的情况下,怀疑心理会驱使人们寻找他们能找到的任何信息,并对正在发生的事情得出自己的结论。这种结论可能是不准确或不完整的,但他该如何知道流程是否透明呢?如果人们开始质疑,并且流程一直都不透明,那么一切都会变得更糟。这种情况很危险,而且有害。在你的治理体系中建立主动和可靠的透明度将提高人们对你工作的信任度。
还有一种更糟糕的情况,就是信息很完整,但推荐的做法没有人去做,或者没完全遵循。也许这有完全正当的理由;如果是这样,你的流程应该捕获这些情况。在人们没有任何有意义的理由不去采取行动的情况下,这可能就是一个 信号,表明一些应该被大家知道的信息被隐藏起来了。如果除了你以外大家都止步不前,也不是因为你让他们这么做,这就不是透明度的问题了,而是缺乏信任的表现。这会导致后果,进而加剧人们的防御态度,导致进一步的不信任。现在你正处于一个难以打破的恶性循环中。如果你不能以有意义和诚实的方式直接解决大家不作为的问题,情况会变得更糟。
当你围绕流程构建透明度时,你需要尊重总有人会有不同意见这一现实,并提供可靠、相关和可共享的信息(最好说清楚你不会共享机密信息,也要讲清楚哪些理由不能充当不作为的借口),然后大家的信心就会建立起来,你们就可以做到最好。
那些在负责任的人工智能领域工作的人们需要面对一些最复杂、最敏感、往往也非常深刻的现实,如系统性种族主义、厌女症、仇恨和各种形式的不公正、不公平的偏见、侵犯人权、地缘政治现实、文化规范和实践、受影响用户之间的不成比例的结果,以及一直在发生的所有事情。如果你能专注于持续评估、优先考虑和增强大家的心理安全感,你们就能,也将会做出非凡的成果。
信任。你需要以全新的方式理解工作环境中的信任关系。这也会让你在它被擦伤、重创或损坏时更快意识到问题,而且不仅是在这项工作中,而是在哪里都能有更快的反应。
倾听。你需要学会倾听。我的意思是真的倾听别人的心声。有时,这意味着你要倾听那些人们不会当大家面说的话,或说起来非常不容易的内容。这反过来又可以让你创造空间和时间来让这些事情浮出水面。如果你能做到这一点,我保证这会是通向成功的关键一步。
勇气。你要让很难发起的对话变得稀松平常。在哪里都要这样做。我发现我能够在工作中的各个方面发起原本极具挑战性的对话,也可以在家里与家人、朋友和亲人做这样的交流。
认知。一旦你看到了伤害造成的恶果,你就再也不能无视它们了。这会产生一种范式转变,并带来连锁反应。你开始做出不同的决定。你教育别人为什么会发生那样的事情。你积极寻找可能出现相同危害的其他场景,并且你也会在那里看到它们的恶果。然后你会看到它们是多么普遍,它们是多么有害。你再也不能在做决策时无视它们的存在,因为你知道那样的决策不会是最佳选择。
包容。在我看来,最重要的是心理安全感创造了一种条件,让我们这些来自特权、权力或权威职位的人们看到我们如何从成为社会和社会技术系统的“规范”中受益。我们可能不会有意识地参与其中,但事实上我们可以选择无意识地参与那些对我们有利但对他人造成不成比例伤害的系统,这一事实要求我们诚实地评估我们每天都在推动的那些事情。解决这个问题需要组织级别的承诺,并且需要个人的努力。我在这里告诉我的白人同胞:这项工作需要由我们来完成,并且我们要创造推动成功的变革,它也需要我们的个人认同。这为包容打开了大门。当包容与心理安全感相结合时,你就会获得归属感。
就我个人而言,这意味着我不能再对与我互动的系统抱持毫不质疑的态度,或者即便我有能力质疑它们,也仅仅因为它们对我自己有利就拒不作为。我不能假设它们对每个人都有效。理解这一点并不意味着我现在需要通过我正在尝试创造的狭隘事物,来尝试解决每一个系统性或社会挑战。那不是我的目标。我的目标是,当我掌握了我所能收集到的所有信息时,我可以对我正在做的事情做出更明智的选择,并且我可以更好地理解如何最大限度地利用我面前的机会,并减轻我可能造成或加剧的危害。这意味着我开始越来越多地看到各种交叉点和事物之间的相互联系——也就是所谓的社会地图——以及无数条道路是怎样以各种方式延伸下去的;这些道路有时会在不知不觉中彼此交错,并在边缘化社区和群体中造成影响巨大、重叠交织且不成比例的伤害。
先进技术真的可以用来制造极端伤害。它们也可用于矫正、治愈和恢复用途。你可以获得后者而排除前者,但你必须为之努力才行。我选择的是后者。
其实我很想分享 Uncommon Impact 团队的成果,但这次就先算了(我的意思是,这篇文章够长了……),所以今天就到这里。
卓越,就是以不寻常的方式做一件平常的事。
——Booker T. Washington
原文链接:
https://tracypfrey.medium.com/convergence-arising-leaving-google-daf398c4382c
点个在看少个 bug 👇