预测音乐喜好、检测转移性肿瘤、生成脑癌的合成扫描图、基于真实的视频创建虚拟环境、识别人口贩卖的受害者、打败国际象棋大师和 Dota 2 专家电子竞技队、自动驾驶。
以上这些只是 2018 年人工智能发展成就的一些例子,也是该领域迅速发展的佐证。麦肯锡全球研究所的分析师预测,按照目前的发展速度,仅在美国,人工智能将在未来 12 年内获得 20-25%的净经济效益(全球为 13 万亿美元)。
一些最令人印象深刻的工作成果来自深度神经网络(DNN)方面的研究,DNN 是一种基于数据表示的机器学习架构。三十年前,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 在论文“反向传播错误的学习表征”中详细介绍了一种基础的权重计算技术——反向传播。在成本日益下降、性能日益强大的计算机硬件的帮助下,反向传播已经在计算机视觉、自然语言处理、机器翻译、药物设计和材料检测等方面的取得了巨大飞跃,在其中一些领域,DNN 生成的结果甚至超过了人类专家。
那么,DNN 会是超级智能机器人成为现实的一个预兆吗?Demis Hassabis 并不这么认为。Hassabis 是 DeepMind 的联合创始人,DeepMind 是一家总部位于伦敦的机器学习创业公司,公司的使命是将神经科学和计算机科学的见解应用在通用人工智能(AGI)中——换句话说,AGI 系统可以成功执行任何人类可以完成的智能任务。
Hassabis 在 12 月初于蒙特利尔举行的 NeurIPS 2018 大会上说:“我们还有很长的路要走。从某种程度上说,游戏或棋盘游戏其实非常简单,因为各种状态之间的过渡模式非常易于学习,但现实世界中的 3D 环境和现实世界本身要复杂得多……”
Hassabis 是国际象棋神童、剑桥大学毕业生,在职业生涯早期,他担任电子游戏 Theme Park 和 Black & White 的首席程序员。他还在伦敦大学学院、麻省理工学院和哈佛大学学习神经科学,在那里,他与其他人一起研究自传记忆和情景记忆系统。他于 2010 年共同创立了 DeepMind,并三年后推出了一个开创性的人工智能系统,这个系统使用原始像素作为输入在 Atari 游戏中崭露头角。
后来谷歌以 4 亿英镑收购了 DeepMind,在完成收购之后,推出的 AlphaGo 一度占据了头条位置。AlphaGo 是一个人工智能系统,在围棋比赛中击败了世界冠军李世石,并与伦敦大学医院合作,开发出“接近人类水平”的 CT 扫描分割模型。最近,DeepMind 的研究人员推出了蛋白质折叠算法—— AlphaFold——从 43 种蛋白质中准确识别出 25 种蛋白质结构,在第 13 次蛋白质结构预测技术评估(CASP)中获得一等奖。本月,DeepMind 在科学杂志上发表了一篇论文,介绍了 AlphaZero 系统,它是 AlphaGo 的继任者,可以玩三种不同的游戏——国际象棋、一种叫做 shogi 的日本象棋,以及围棋,并足以击败顶尖的人类玩家。
尽管 DeepMind 取得了令人瞩目的成就,但 Hassabis 警告说,他们并不认为 AGI 即将来临。他说,与今天的人工智能系统不同,人们利用现实世界的内在知识来进行预测和规划。与围棋、国际象棋和日本象棋新手相比,AlphaGo 和 AlphaZero 在信息方面处于劣势。
Hassabis 说,“这些 AI 系统首先要学会看,然后才能学会玩。相比算法,人类玩家可以更快地学会玩类似于 Atari 游戏的东西,因为他们可以很快地将图案转成像素,然后确定是要往前进还是往后退”。
要让 AlphaZero 这样的模型击败人类,它需要在一个拥有数千个谷歌专门为机器学习设计的专用芯片的系统上进行 700,000 个训练步骤——每个步骤代表 4,096 个棋盘位置。国际象棋需要训练约 9 个小时,日本象棋需要训练 12 个小时,围棋需要 13 天。
DeepMind 并不是唯一家尝试突破当前 AI 设计局限性的公司。
在今年早些时候发表的一片博文中,OpenAI——一家位于旧金山由 Elon Musk、Reid Hoffman、Peter Thiel 以及其他技术名人支持的非营利性人工智能研究公司——推出了 OpenAI Five,在今年夏天击败了 Dota 2 五人团队(其中有四名职业 Dota 2 玩家)。OpenAI 表示,它每天都要在谷歌云平台上(配备 256 块 Nvidia Tesla P100 显卡和 128,000 个处理器核心)玩游戏。但即使在完成所有训练之后,它仍然难以将获得可以应用于游戏之外的任务的技能。
Hassabis 说,“我们的系统无法以有效的方式将知识从一个领域转移到另一个领域。构建游戏模型相对比较容易,因为从一步移动到另一步是非常简单的,但我们希望能够将生成模型能力灌输给系统……这样在这些环境中进行规划就变得更容易”。
现今的大多数人工智能系统的可扩展性也较差。AlphaZero、AlphaGo 和 OpenAI Five 利用了一种叫作强化学习的编程范式,其中有一个 AI 控制的软件代理将学会在环境中采取行动——例如,棋盘游戏或 MOBA——以最大化奖励。
Hinton 在接受采访时说,可以想象一下 Skinner 盒子系统——它的名字源于哈佛大学先驱心理学家 B. F. Skinner——它利用操作性条件来训练动物,让它们做出动作,例如按下控制杆、对光或声音做出响应。当受试动物做出正确的动作,就会获得某种形式的奖励,通常是食物或水。
Hinton 说,人工智能强化学习方法的问题在于奖励信号往往是“微弱的”。在某些环境中,代理无法从随机数据中找到模式——即所谓的“嘈杂的电视问题”。
“每隔一段时间,你就会得到一个标量信号,但频率并不高,信息量也不大,而且你需要基于这些微弱的信号使用数百万个参数或数万亿个参数来训练系统。你能做的是使用大量的计算——很多令人印象深刻的演示都依赖于大量的计算。这是一个方向,但它并不能真正吸引到我。我认为研究人员需要的是更好的见解。”
Hinton 过去 30 年来一直在解决 AI 面临的一些重大挑战,现在主要专注于谷歌的 Brain 深度学习研究团队和多伦多大学。他被一些人称为“深度学习教父”。除了在 DNN 方面的开创性工作之外,Hinton 还在机器学习、感知、记忆和符号处理等方面撰写或合著了 200 多篇出版物,他最近将注意力转向胶囊神经网络——包含有助于构建更稳定表示的结构的机器学习系统。
他说,数十年的研究让他确信解决强化学习可扩展性问题的方法是利用结构化架构来放大信号。
Hinton 解释说,“假设你有一个很大的组织,强化信号排在最前面,首席执行官被告知公司今年获得了大额利润——这就是他的强化信号。我们假设这种信号每个季度会出现一次。如果要训练一大堆人员来完成几项任务,这些信号太弱了,但如果首席执行官有一些副总裁,并给每位副总裁一个目标,以便最大化他的奖励……那么这将带来更多利润,他最终会得到奖励。”
Hinton 说,即使奖励没有出现——也许是因为首席执行官给副总裁设定了错误的目标——这个过程仍然会继续。副总裁总是可以学到一些东西,这些东西在未来总会派上用场。
他补充说,“通过设定子目标,并让人们实现这些子目标,你可以通过创造更多微软的信号来放大这些它们”。
这是一个看似复杂的思想实验。这些副总裁实际上需要一个渠道——即中层和低层管理人员——来传达目标、子目标和相关的奖励条件。系统中的每个“员工”都需要能够决定他们是否做了正确的事情,这样他们才能知道为什么会获得奖励。所以他们需要一个语言系统。
Hinton 说,“这是一个让系统的某些模块为其他模块创建子目标的问题。你可以想象一下牧羊人。他们创造了一种非英语语言,训练有素的牧羊犬和牧羊人可以通过这种语言进行很好的交流。但如果牧羊犬有自己的牧羊犬,那么它必须将从牧羊人那里获得的东西(比如手势等)形成一种可以与子牧羊犬交流的方式。”
幸运的是,最近的一项叫作“Transformer”的 AI 突破可能正朝着正确方向迈出一步。
谷歌研究人员在去年的一篇博文和附带论文“Attention Is All You Need”中介绍了一种新型神经结构——Transformer——能够在语言翻译任务中超越最先进的模型,并且需要的训练计算量也较少。
谷歌于 11 月份开源了 Bidirectional Encoder Representations from Transformers(BERT)。BERT 通过预先训练可以从任意语料库生成的任务来学习建立句子之间的关系,并让开发人员可以在 30 分钟内基于一个云 TPU(张量处理单元,谷歌的云托管加速器硬件)或者在几个小时内基于单个图形处理单元训练出“最先进”的 NLP 模型。
Hinton 解释说,“Transformer 其实是神经网络。在神经网络中,活动变化很快,而权重变化缓慢。生物学告诉你,你需要做的是拥有快速变化的活动,然后基于很多不同的时间尺度修改突触,这样你就可以记住最近发生的事情…… 或者很容易恢复记忆。使用 Transformer,一群神经元会找到一些东西,而且不仅仅是将它们发送给它所连接的人——它还把它们发送给那些知道如何处理它们的人。”
这并不是一个新想法。Hinton 指出,在 20 世纪 70 年代,大多数关于神经网络的工作都集中在记忆上,目的是通过修改权重来存储信息,这样就可以重新创建信息,而不是简单地从某种形式的存储中拉取。
他说,“你实际上并没有像将文件保存在文件柜中那样存储信息——你修改参数,如果我给你一点东西,你就可以填充其余部分,就像根据一些碎片还原出一只恐龙一样。我们应该将这个想法用于短期记忆,而不仅仅是长期记忆,它将解决各种各样的问题”。
Hinton 认为,从生物学的角度来看,未来的人工智能系统将主要是无监督多样性。无监督学习——机器学习的一个分支,从未标记和未分类的测试数据中收集知识——在学习共性和对它们的存在或不存在作出反应的能力方面几乎是与人类是一样的。
他说,“一般来说,人们没有标记数据。我认为这是一种更具生物学意义的学习方式……这也是大脑主要要做的事情”。
Hassabis 表示同意。
他说,“我们在 DeepMind 正在致力于开发一种具有认知能力的神经科学路线图,我们认为这些认知能力是为了拥有一个功能齐全的人类 AI 系统所必需的。它能够转移学习、概念知识(在某种意义上可能也是一种创造力)、想象未来的场景、反事实和未来规划、语言使用和象征性推理。这些都是人类毫不费力就可以完成的事情。”
然而,随着人工智能越来越复杂,一些技术专家和伦理学家担心它会吸收和反映现有训练数据中存在的偏见。事实上,有证据表明这类事情已经发生过。
谷歌的 AI 研究科学家最近在一个免费提供的开源数据集上设置了一个预训练的 AI 模型。一张照片——穿着西式长裙和全裙式婚纱的白种人新娘——被标记为“礼服”、“女性”、“婚礼”和“新娘”。然而,另一张照片——也是新娘的照片,但是是亚洲血统,穿的是民族服饰——被标记为“服装”、“事件”和“表演艺术”。更糟糕的是,模型完全遗漏了图片中的人物。
与此同时,在 7 月份由华盛顿邮报委托进行的一项研究中,亚马逊和谷歌推出的智能音箱在识别语音时,对英语母语的人的口音识别成功率比非英语母语的人的口音识别成功率高 30%。IBM 和微软等公司使用 Switchboard 语料库来衡量语音模型错误率,而这个数据集已被证明偏向了该国特定地区的用户。
计算机视觉算法在偏见方面并没有表现得更好。
2012 年发布的一项研究表明,Cognitec 的面部识别算法对白种人的识别成功率比非洲裔美国人高 5%至 10%。据透露,伦敦警察厅最近部署的系统每次都会产生多达 49 个错误的匹配。在今年夏天的亚马逊 Rekognition 服务测试中,美国公民自由联盟证明,使用来自“公共资源”的 25,000 张照片,并将它们与国会成员的官方照片进行比较,有 28 人被误认为是罪犯。
但 Hinton 并没有因为这些负面新闻而气馁。他认为,人工智能的优势在于它所提供的灵活性——以及数据中的偏见是可建模的。
他说,“任何从数据中学到的东西也将学习到数据中的偏见。好在如果你可以对数据中的偏见进行建模,你可以非常有效地抵消它们。有各种各样的方法。”
他指出,但这并不总是适用于人类。
“如果有人在做这些工作,你可以尝试对他们的偏见进行建模,告诉他们,表现得没有偏见并不能减少偏见。所以我认为在机器学习系统中处理偏见要容易得多。”
在 Hinton 看来,一类新兴的偏见消除工具有望引领更加公正的 AI 系统。
5 月份,Facebook 发布了 Fairness Flow,它会自动警告一个算法是否根据一个人的种族、性别或年龄对其做出不公平的判断。埃森哲发布了一个工具包,可自动检测 AI 算法中的偏见,并帮助数据科学家减轻这种偏见。微软于 5 月份推出了自己的解决方案,谷歌并于 9 月份推出了 What-If 工具——为 TensorFlow 机器学习框架提供的 TensorBoard Web 仪表盘偏见检测功能。
IBM 在秋季发布了 AI Fairness 360,这是一款基于云的全自动套件,不断为 AI 系统如何做出决策并进行推荐调整“提供见解”——例如算法调整或平衡数据——这可能会减轻受偏见的影响。最近,Watson 和 Cloud Platform 小组的研究重点是减轻 AI 模型中的偏见,特别是与面部识别相关的部分。
Hinton 说,“对于速度非常快的计算机来说,你现在可以开发效率不是很高的软件,这很容易理解,因为计算机的速度可以抵消掉效率问题。人们不喜欢这样做,但你喜欢这样——你想让你的代码不是那么高效,这样你就可以省心些……对于非常精确的事物,你可以让它们变得不那么精确,以此来实现你想要的其他东西。在我看来这是一个公平的权衡。”
对于人工智能对就业市场的影响,Hinton 也持乐观态度。
“通用人工智能”这句话本身带有这样一种暗示,即这种机器人突然变得比你还聪明。但我认为不会出现那种情况。我认为越来越多的常规事情将被人工智能系统取代——比如谷歌智能助理。”
Forrester 分析师最近预测,机器人过程自动化(RPA)和人工智能(AI)将会创造出数字工作者——软件可以自动执行传统上由人类执行的任务——明年将有超过 40%的公司,而在 2019 年,美国大约有 10%的就业机会将被自动化代替。此外,世界经济论坛、普华永道和 Gartner 预测,到 2025 年,人工智能可以替代多达 7500 万个工作岗位。
但 Hinton 认为 AGI 不会让人类变得多余。相反,他说,至少在不久的将来,它在大多数情况下对世界的理解都是很短视的。而且他相信,它会以小而有意义的方式继续改善我们的生活。
他说,“未来的人工智能将会对你可能想要做的事情以及如何做到了解更多,而且它对你来说非常有用,但它不会取代你。但如果你使用一个为驾驶而开发的系统,并在它的处女驾中使用它,那可能会是一场灾难”。
Hinton 说,取代目前由人类完成的那些危险的任务倒是朝着正确方向迈出的一步。
他说:“人们真正应该害怕的是坐在一辆由巨大的神经网络控制的汽车上,这种神经网络不会告诉你它在做什么。它应该被叫做出租车司机”。
英文原文:
https://venturebeat.com/2018/12/17/geoffrey-hinton-and-demis-hassabis-agi-is-nowhere-close-to-being-a-reality/
如果你喜欢这篇文章,或希望看到更多类似优质报道,记得给我留言和点赞哦!