AI 科技评论按:IJCAI(国际人工智能联合会议,International Joint Conferences on Artificial Intelligence)是人工智能领域历史最为悠久,也是影响力最大的学术会议之一,随着近年来人工智能的热度日益攀升,原本仅在奇数年召开的 IJCAI 自 2015 年开始变成每年召开。今年,万众瞩目的 IJCAI 也将如约而至,将于 8 月 10 日至 16 日在中国澳门隆重召开。
特邀报告(Invited Talks)作为 IJCAI 最受关注的环节之一,随着会议的临近,特邀讲者名单也在相继公布中。机器人作为人工智能领域的一个非常重要的研究方向,本次大会也特别邀请了机器人专家、麻省理工教授 Leslie Kaelbling 做特邀报告。届时,她将带来主题为《Doing for our robots what evolution did for us》的特邀演讲。
Leslie Kaelbling 是麻省理工学院的机器人专家。 她在强化学习、规划、机器人导航等人工智能研究领域获得了引人注目的研究成果,其中包括将运筹学中的部分可观察的马尔可夫决策过程应用到人工智能和机器人中,曾获得 IJCAI「计算机与思想奖」(Computers and Thought Award)等重要奖项,同时她也是人工智能领域颇负盛名的《机器学习研究杂志》的创始人兼主编。
近日,麻省理工学院教授 Lex Fridman 在其播客访谈节目《Artificial Intelligence Podcast》中与 Leslie Kaelbling 进行了对话。对话中,Leslie Kaelbling 不仅分享了她从哲学领域转入计算机科学领域,并与 AI 和机器人结缘的背后的故事,还详细阐述了其对于机器人发展历程以及现状的见解。
采访视频播放地址:https://www.youtube.com/watch?v=Er7Dy8rvqOc
AI 科技评论将采访视频整理成文如下,全文进行了不改变原意的删改。
Leslie Kaelbling:说到是什么让我对 AI 产生了浓厚的兴趣,就不得不提我在高中时期阅读的《哥德尔、艾舍尔、巴赫》(Gödel, Escher, Bach)。这本书对我来说极具塑造性,它让我感受到了原函数和组合函数的另一种趣味性,也让我更加了解怎样将复杂的事情与简单的部分区分出来,并开始思考怎样的 AI 以及程序才能够让机器产生智能行为。
Lex Fridman:因此您最开始喜欢上的其实是 AI 与机器人的推理逻辑。
Leslie Kaelbling:是的,喜欢机器人则是因为我的第一份工作。当时我从斯坦福大学的哲学专业毕业,正打算去读计算机科学的硕士,然后我被 SRI 录用了,进入到他们的 AI 实验室工作。他们当时正在研发一款类似于 Shaky 的后代机器人,但是 Shaky 原来的研发者都不在了,因此我的工作就是尝试让这个机器人拥有做事情的能力。这也是让我真正对机器人产生兴趣的契机。
Lex Fridman:我们先稍微回顾一下您的大学生涯。您在斯坦福大学获得了计算机科学的硕士和博士学位,但是您的大学本科读的是哲学专业,那您认为哲学中有哪些部分是您可以应用到计算机科学的研究中的。
Leslie Kaelbling:哲学与计算机科学是紧密相关的。我在大学本科期间没有读计算机专业是因为斯坦福大学当时还没有开设这个专业,但是实际上,斯坦福大学开设了一些特殊的辅修课程,比如现在称作符号系统(symbolic system)的学科,这门课程教授的内容是逻辑模型理论(logic model theory)以及自然语言的形式语义(formal semantics of natural language)。这对于我之后从事 AI 和计算机科学的研究做了一个完美的铺垫。
Lex Fridman:这非常有意思。当时如果对 AI 感兴趣的话,大家一般会选择上哪些计算机相关课程?您当时对于 AI 的想法深为着迷,除了哲学,还源自于什么其他的原因?
Leslie Kaelbling:当时并没有很多人从事这个方向的研究,甚至也没有什么人探讨它。但是我大学的同班同学倒是都对人工智能挺感兴趣的:我们班有接近一半的人转向计算机科学专业深造,近一半的转向法律专业深造,而只有一两位同学继续留在哲学专业学习。所以哲学专业和计算机科学专业二者间其实是有相当普遍的关联性的。
Lex Fridman:你认为 AI 研究人员是否需要拥有哲学家的另一重身份,还是说他们应该坚持从事「硬」的科学和工程研究,而不需要进行一些哲学思考?也就是说,如果研究者从事于机器人研究,却无法很好地从哲学上的大视角来看待研究问题,又该用什么来驱动他们研究出出色的 AI 呢?
Leslie Kaelbling:我认为哲学专业中与 AI 最紧密相关或者说与 AI 有点关系的,就是信念、知识以及表示这些东西。这些其实都是非常形式化的东西,似乎距离我们所做的常规计算机科学工作只有一步之遥。我认为现在非常重要的问题依旧是,你可以用机器来做什么以及不能做什么。尽管我个人完全是一个唯物主义者,但我认为我们没有理由无法开发出一个行为举止与人类毫无区别的机器人,而判断它与人类是否有区别的关键在于它的内心是否是有直觉或哲学思维。实际上,我并不知道自己是否非常在意这个。
但是我们现在不知道它们获得哲学思维,进行感知和规划,以及在现实世界中顺利运行有多难。毕竟现在的机器人在很多任务上,都还做不到像人类一样。
所以问题实际上就是,现在机器人和人类在哲学上还存在巨大的差距。我们都知道,如果机器人要在现实世界应用这些知识,就需要对这些知识进行扩展,并需要拥有形成常识以及在大部分工作中进行不确定性推理的能力。这些都是开放性的问题,我不知道要怎样去用确定而全面的视角看待这些问题。
对于我来说,这似乎并不是一个哲学差距的问题,而是一个技术上的大难点,除此之外,我并不认为机器人和人类在其他方面存在差距。
Lex Fridman:好的。您是否认为 AI 还存在一些遗憾呢?还记得当您开始对机器人学或机器人产生兴趣的时候,当时对 Shaky 机器人有什么印象?您当时对于机器人的想象是否实现了呢?
Leslie Kaelbling:我最开始研究的机器人是 Shaky,它是 SRI 研究人员开发出来的机器人。当我第一次踏入 SRI 的时候,当时它正站在某个办公室的角落,正在将液压油滴在一个锅中。这个机器人是相当具有标志性的,每个人都应该读到过 Shaky 的技术报道,因为它身上汇聚了许多非常好的想法,比如他们不仅将很好的搜索、符号规划和学习的宏操作符都应用到了机器人身上,还对机器人进行了较初级的空间规划配置,并且为 Shaky 配置上了手臂。他们在很多方面都有了比较清晰的基本思路。
Shaky 是一个移动机器人,它可以推动物体,在它自身搭载的执行器和底座的帮助下,可以将物体移到旁边去。同时,它还能够使用它的视觉去进行自我定位、探测物体,并基于它所看到的东西进行规划,并推理是否要探视和拍照。我觉得,当时它对我们现在所能想到的很多事情都有了基本的认知。
Lex Fridman:您认为它是怎样表示周围的环境空间的呢?
Leslie Kaelbling:它对于许多不同程度的抽象表示都有认知,我认为,它对于低级别的抽象表示,会使用某种占用网格;对于高级别的抽像表示,它会使用针对某种空间以及关联性的抽象符号。
Lex Fridman:现在有一个词叫「片状」(flaky)。
Leslie Kaelbling:是的。当时在 SRI 的时候,我们正在开发一个全新的机器人。正如我刚刚所说的,团队中没有一个人是来自于之前 Shaky 那个项目的,因此我们相当于是从头开始。当时是我的导师并最终也成为了我的论文导师的 Stanresinshine,就曾受到「情景计算」(Situated Computation)或者说「情境自动装置」(Situated Automata)这个想法的启发。这个想法就是:逻辑推理的工具非常重要,但是可能仅有工程师或者设计者会将这个工具用到系统的分析中,此外,这一工具不一定要应用到系统自身的头部中。
当时我认为可以使用逻辑去证明关于机器人行为的理论:即使机器人不使用它头部的逻辑,它也可以进行手臂的动作。这就是区别。而这个想法就是使用这些原则去开发可以做事情的机器人。不过当时,我自己需要学习大量的基础工作,因为我没有机器人学背景,不知道任何机器控制、感知相关的知识。所以在这一过程中,我们把很多技术都重新研发了一遍。
Lex Fridman:那您认为这是优势还是阻力呢?
Leslie Kaelbling:我的意思是说,在这个过程中,你可以学到很多事情,并且最终攻克问题以后也能更清楚地明白自己走到了哪一步。
Lex Fridman:您能总结一下 AI 和机器学习强化学习的历史,以及您怎样看待它从 20 世纪 50 年代至今的发展?
Leslie Kaelbling:它的发展的一个重要特点就是徘徊:变得火热之后又落到低谷,之后又变得受欢迎,随后又落到低谷...... 实际上,我认为它的进程很大程度上是由社会学进程所驱动的。
早期,它的发展是控制论的发展有关,人们以动态平衡的思路开发机器人,当机器人需要动能的时候,就为它们充电,之后它们就可以在周围滚动,做事情。后来,我对于这一思路思考了很长时间,我认为它是具有启发性的。但是当时人们不赞成这一思路,他们认为我们需要让机器人不断接近实现真的智能,即类人智能。
之后人们尝试研究专家系统去实现真正的智能,但是都太过表面了。我们对智能的理解是表面的,这就跟我们理解钢铁厂怎么运转一样。我们认为,只要对智能进行解释,然后将它用逻辑写下来,之后再设计一台计算机来对其进行推理就实现了专家系统,然而结果,我们发现计算机无法实现推理。不过我认为比较有意思的是,当专家系统的研究开始变得不太顺利时,我们不仅改变了研究方法,我们还改变了问题。我们似乎没有更好地方法甚至可以说没有办法去解决专家系统的问题。最终我们放弃去解决专家系统的问题,开始转向另一个完全不同的问题。
Lex Fridman:想必当时研究界有很多人会认为不应该放弃专家系统的研究,而您则倾向于将该问题先搁置到一边。现在让我们回到刚刚的话题,专家系统之后的 20 年的发展。
Leslie Kaelbling:认为专家系统很异常,这个观点是无可厚非的,这就像有的人认为仅仅做一些表面的符号推理是错误的一样,以及有些人认为医生在拥有临床经验之前不能成为一名真正的医生一样。因此当时存在这个问题的方向对或不对的争论,都是正常的,只不过我们最终还是无法找到解决方法。
Lex Fridman:您刚刚提到,逻辑学和符号系统中你最喜欢的部分,就是它们能够给以短名称给大规模的设置命名。所以这些方面在符号推理中有什么应用吗,比如说专家系统或符号计算?你认为在 80 和 90 年代,人工智能发展的最大阻碍是什么?
Leslie Kaelbling:实际上我并不是专家系统的拥护者,不过我对一些符号推理倒是很感兴趣。说到人工智能发展的阻碍,我认为最主要的阻碍是当时人们的想法,大家认为人类能够有效地将他们的知识转成某种形式的逻辑陈述。
Lex Fridman:这不仅仅要求付出代价和努力,还要人类真正拥有这种能力。
Leslie Kaelbling:是的。虽然我们都算是有远见的专家,但是完全无法用内省的方式来想明白我们如何做到这一点。关于这一点,我认为其实当时每个人都明白:专家系统不是要求人类写下用来识别水瓶的规则,而是要写下用来进行决策的规则。我认为当时大家都发现了,所谓的专家能给出的解释,就像鹰派能够解释他们怎样做事以及为何做事一样。他们给出的解释不一定很好。
之后,他们改造了专家系统,使其转而依赖于某种感知事物的东西,但是感知的这种东西又回到了我们刚刚提到的:我们无法很好地定义它们。所以从根本上来说,我认为其根本问题就是假设人们可以明确表达他们做决策的方式和原因。
Lex Fridman:所以说,从专家那里转换而来的知识进行编码后,就变成了机器能够理解和推理的东西。
Leslie Kaelbling:并不是。这不仅仅需要编码,还需要让知识完全脱离专家。我的意思是,将知识编写到计算机中本来就很难。而我更认为,人们无法将这些知识生成出来。人们可以讲一个故事告诉我为什么要做这件事,但我并不确定这样表达出来的东西能够为机器所理解。
Lex Fridman:在分层规划方面仍然存在符号推理的用武之地,正如您刚才所谈到的那样。所以具体的难点在哪里呢?
Leslie Kaelbling:即便人类不能为机器提供推理过程的描述,这也并不意味着在计算机内部不能进行各类风格的推理。这只是两个正交点(Orthogonal Points)。这样的话,问题实际上就变成了:应该在计算机内部用何种方式进行推理?答案是,我认为计算机内部需要针对所面临的不同问题,使用各种不同的推理方式。
Lex Fridman:我是否可以理解为,这个问题是,人们可以对哪类事物进行符号编码,从而实现推理?
Leslie Kaelbling:关于符号,我甚至都不喜欢这个术语,因为我不知道它在技术上和形式上到底是什么意思,与此同时,我对抽象深信不疑。抽象是直观、重要的,因为对于生活中的一切,人不可能从特别细的粒度出发做出完整的推理。你不可能仅仅基于某张图像,就做出要读博士的决策。
所以如果你要推理出要攻读博士学位,甚至是购买哪些食材来做晚餐,你就必须缩小状态空间的大小以及推理的视界。那该怎样缩小状态空间的大小或推理的视界?答案是抽象:空间抽象和时间抽象。
我认为沿着目标轴线的抽象也很有趣,对目标进行抽象和分解可能更像是一个分解的过程,某种程度上我认为这就是大家所谓的符号或离散模型。当你在聊天的时候,你可能会谈到房子的面积,而不会谈你在某个时间点的姿势;你会说你在下午做了某件事,而不会说你在两点五十四分做了某件事情。你这样做其实是因为这样能简化了你的推理问题,以及你没有足够的信息去对你在今天下午两点五十四分的姿势进行高保真的推理。
我需要重点重申的一点是,所有的这些都不应该沦为教条,认为我们不应该这样做,不应该那样做。我可以赞成符号推理,而你也可以支持神经网络。计算机科学最终会告诉我们所有这些问题的正确答案是什么,如果我们够聪明的话,也可以搞清楚。
Lex Fridman:是的,实际上当你试图用计算机解决实际问题时,正确答案自然而然就出来了。您刚刚提到抽象这个概念,提到所有的网络都源自于抽象,存在自动化的方式去形成策略、专家驱动的方法去构建抽象,并且当下人类似乎在抽象构建上的表现更好,所以你提到两点五十四分与下午对比,那我们如何构建这样的分类法呢?现在是否有可能实现诸如抽象此类的自动构建?
Leslie Kaelbling:我认为当机器学习发展得更好时,工程师可以开发出算法来构建出非常出色的抽象。
Lex Fridman:我们不妨先放下抽象的讨论,先谈谈部分可观察的马尔可夫决策过程(Partially Observable Markov Decision Processes,POMDPs)。首先想请问一下您,什么是马尔可夫决策过程?我们世界中有多少事物是可以建模以及具有马尔可夫决策过程的。比如您从 POMDPs 的角度,怎样看待早晨做早餐的花费?又怎样看待 POMDPs?它跟我们的真实世界又是怎样建立联系的?
Leslie Kaelbling:其实这是一个立场问题,立场就是我看待问题所处的位置。我作为一名研究人员或者系统设计者,可以选择以何种方式对我周围的世界建立模型,从而了解这个混乱的世界。如果我其将当做这种形式的问题处理,我就可以沿着算法这一类的思路,提出方案来解决问题。当然对这个世界建模并不能代表能解决任何问题,也不是马尔可夫决策过程。但是我能通过以各种方式建模的来寻找解决方案,一旦我找到正确的建模方式,就能得到一些可以用的算法。
Lex Fridman:您可以通过各种方式为这个世界建模。一些方式会更倾向于接受不确定性,也更容易为世界的不确定性进行建模,而一些方式可能会强行将这个世界变成确定性的。
Leslie Kaelbling:是的。一些模型是不确定性的,但是这个模型并不能表示当前状态的不确定性,而是对未来的发展走势进行建模。
Lex Fridman:那什么是马尔可夫决策过程呢?
Leslie Kaelbling:马尔可夫决策过程,是一个假设我能够完全了解系统的当前状态,即掌握系统的所有信息情况下对未来做预测的模型。所以记住历史发生的所有事情,与对未来所做预测的好坏并无关联。同时,该模型也假设我能够采取一些行动来改变世界的当前状态,并且我无法对这些变化进行确定性建模,而只能建立概率模型。这种概率模型对于某些系统来说可能非常有用,不过对于大多数问题来说都没什么用。因为对于大多数问题,你无法只能观察到它们的部分状态,并且这些问题都是各不相同的。
Lex Fridman:所以对于马尔可夫决策过程,我们只能观察到部分状态。所以当你不能观察到大部分状态,也不能完整地了解周边世界的信息时,马尔可夫决策过程又怎样处理现实问题呢?
Leslie Kaelbling:现在这个过程的思路依旧是,假设存在我们了解周围世界的一些信息的情况,我们能够做出好的预测。虽然我们不知道当前完整的状态,不过我们可以通过图像等去观察、感受,然后根据观察到的历史行为去推断世界的发展趋势,并基于自己无法确定的未来发展动向,来决定采取什么行动。
Lex Fridman:在不确定的情况下做出规划,这个问题是非常困难的。在对世界进行建模来处理现实世界这种特殊系统的不确定性方面,您有着非常丰富的经验。
Leslie Kaelbling:这种最优规划问题往往是不可判定的,它取决于你进行了怎样的设置。很多人都表示,我不使用 POMDPs,因为它们难以处理。我个人认为这是一件非常滑稽的事情,因为问题之所叫做问题,就是需要你必须去解决的。
而我们 AI 研究者之所以会出现,就是因为要解决的问题非常棘手。我们都明白我们正在解决的问题在计算上的难度非常高,我们可能无法为它找到最优解。即便我们认为可能无法提出最佳解决方案,但是还是会回到最优问题上反复探索,我们能做的就是让建模、算法不断、不断地接近最优。
我从来不会说,问题的计算是多么复杂。相反地,这些复杂的问题能够让我更清晰地了解我解决问题的方式,然后一步步地执行近似操作,最终在一个合理的时间范围内找到可计算的最优解。
Lex Fridman:当您在探讨最优解的时候,当时业界有多重视追求最优解决方案的思想?此外,追求最佳解决方案的思想多年来也一直在变化。
Leslie Kaelbling:这很有趣,从理论上来说,我们实际上有一点方法论危机。我的意思是,我认为理论对于我们现在所做的很多事情都很重要。
现在出现了很多经验丰富的黑客攻击,他们对此进行训练并进行编号。我们很难说清这样好还是不好。如果你关注计算机科学理论,你会发现在谈论了探讨一段时间后,每个人都会讨论最优化解决问题。人们会关注怎样找到遗憾绑定(Regret Bound)、怎样执行近似、怎样证明问题的解是近似解,花的时间越多就越接近最终的最优解。
我觉的比较有意思的是,对于难度非常高的问题,我们没有建立一个比较好的「近似解」概念。我个人非常喜欢研究难度很高的问题,希望自己建立某种形式的解决方案的概念,让我可以判断这个算法是有一定作用的,让我知道除了运行它还能用它做点其他什么事情。
Lex Fridman:所以拥有某种概念某种程度上对您有很深的吸引力,同时您可以使用这些概念来更好地看清某些事情,并期待这些事情能够给您带来好的结果。
Leslie Kaelbling:科学这一学科中也有工程学,但我认为二者并不完全相同。我认为我们正在做的工程学取得了跨越式的发展,它是走在科学前头的学科。但是它今后如何发展,大致是怎样以及为什么工作,没有人清楚。我们需要将工程问题转化成科学问题,我们需要知道工程学怎样、为什么工作的原理,比如在曾经的一段时间,人们如果要建桥梁就要真正地去建,而现在我们不需要去真正去建桥梁,就能预测这架桥梁建成后会是什么样。这些都是我们可以应用到学习系统以及机器人中的。
Lex Fridman:您期望从唯物主义的角度来看待人工智能、智能系统以及机器人? MDPs 所涉及的信念空间(Belief Space)和状态空间(State Space)有什么区别?您通过世界的状态来进行推理,那信念空间呢?
Leslie Kaelbling:信念空间不是说考虑当前世界的状态是什么样的从而尝试让机器人去控制这些状态,我将它理解为一种世界如何发展的概率分布,这样的话控制问题不再是怎样控制机器人在这个世界穿行的问题,而变成了一个控制信念的问题,即我采取行动不仅仅考虑这个行为对真实世界产生什么影响,还会考虑它对于我自己对世界的理解会产生什么影响。这就可能迫使我提出一个问题:哪些是不会真正改变世界状态但会改变我对世界的信念的?我会将这些信息汇集起来作为决策考量的依据。
Lex Fridman:这是增强智能体对世界的推理和探索能力的很强大的方法。您在面临什么问题的时候,会考虑用到信念空间,又在什么情况下会仅仅考虑状态空间呢?
Leslie Kaelbling:其实大部分问题都是需要刻意收集信息的。在一些问题中,比如说象棋中是不存在不确定性的,但是对于对手来说,可能就会存在不确定性,这样的话就不存在状态的不确定性了。即便一些问题存在不确定性,但是你可以在解决问题的过程中去收集信息。比如,当你乘坐驾驶自动汽车的时候,它并不完全知道它身处何处,但它了解光照时长一直在变化的信息,这个时候你是不需要收集信息的;但是当你自己在道路上驾驶汽车时,你要看看你旁边以及后方的路况,需要决定在哪边道路开等等,你需要衡量这些信息的价值,并选择收集哪些信息以及合理区分。
同时,在你采取行动前,你还需要考虑自身的不确定性。如果我知道我所站的地方与门框恰好相对,我就能顺利穿过门。但是如果我不能确定门所在的位置,最好就不要马上迈过去,而要先进行评估。
Lex Fridman:你对世界的不确定程度,实际上就是你在形成规划过程中需要优化的一部分。那您能否描述一下,我们怎样采用分层规划的方式来对这个世界做规划?距离机器人真正实现对一些事情做规划还有一段很长的道路。
Leslie Kaelbling:推理中使用的分层推理,包括时间分层和空间分层。我们先说一下时间分层。之前的执行过程需要进行很长时间,而使用时间分层就能够抽象地将这个过程划分为几个部分。在之前我们也谈到过,如果你能够在状态空间中构建时间抽象,你就能进行高水平的规划,比如说我要前往城镇,然后给车加油,之后我会到这里做一些什么事情等等。你可以推理出这些行为的依赖性和约束性,而不需要进行事无巨细的考量。
在分层规划中,我们需要做的就是针对抽象,做出高水平的规划。我认为这个过程是非常灵活的,它不需要考量所有的细节因素,同时我也认为这是非常有趣的一个步骤。我喜欢以机场这一场景为例,比如你可以规划前往纽约,之后到达目的机场,然后到达办公楼,但是你无法提前说出你在机场发生的事情,这或许是因为你自己懒得想,但更多的还是因为你没有足够的信息推理出你在哪个登机口登机,坐在你前面的是谁等等这些事情。
所以,规划得太详细是没有意义的,但是你必须实现信念上的飞跃,相信你到了那里就能弄清楚所有事情。有人说,我终其一生所学到的就是预测实现某些类型的子目标的难度。我认为这是至关重要的,如果你对于完成这些中间步骤没有一个模型,你就无法对飞往某个地方做规划。
我们现在要讨论的一件事就是,就是如何对这些你没有经历过的情况进行概括,从而进行预测,比如说穿过吉隆坡机场要多长时间。所以,对于这类抽象模型,我真的非常感兴趣,一旦我们创建好这些模型,我们就可以用这些模型来做分层推理,我认为这非常重要。
Lex Fridman:就跟您刚刚提到,一旦你出现在机场,你就离目标只剩几步之遥了。您能解释一下这个目标的起点是什么吗?
Leslie Kaelbling: Herb Simon 在人工智能早期就谈到过从方法到结果的正向推理以及从结果出发的反向推理。人们直觉上会认为状态空间数量很多,你可以采取的行为也很多。比如说我坐着的时候,想要搜索我前面在哪,我所有能做的事情是什么,其状态空间和可采取的行为数量都是庞大的。
如果你可以在另一个层面上推理,比如确定了希望实现的目标,要知道如何实现这一目标,这样问题的范围就更小了。有趣的是,现在 AI 规划领域还没有解决已知的这类问题,并且他们现在倾向于使用的方法还是从方法到结果的正向推理,目前还没有什么研究在从结果出发的反向推理中做出更好的结果。这还是我的某种直觉,我还无法立即向你证明这一点。
Lex Fridman:也很荣幸您能跟我们分享您的直觉。您之前是否思考 AI 领域需要借助点哲学的智慧?您认为将人类的一生或生命的某个部分制定成一个规划问题有多难?当您从事于机器人研究时,您往往考虑的是物体操作、物体移动任务等,那您打算什么时候走出实验室,让机器人出门、做午饭以及追求更加高远的目标呢?您怎样看待这个问题?
Leslie Kaelbling:我认为这个想法是错误的,事实上人类的一生并不都是规划问题。大家可能都觉得将生活的各个部分整合在一起非常重要,但是这些部分在推理、表示以及学方面的风格都是截然不同的。大家都清楚的是,一个人不可能永远都是这样的或者那样的,人类的大脑也并不总是一成不变,所有的事情都是如此,它们的构成部分、子架构等都不尽相同。所以我个人认为,我们没理由去憧憬,将会有一个算法能够真正地完成整个任务。
Lex Fridman:我们现在能做的,还只是针对特定的问题设计出特定的算法。
Leslie Kaelbling:这需要考量问题类型,比如说,某些推理可能需要在图像空间中进行。我要再次提到的一点事,推理只是一个强化学习问题,它的思路可以是基于模型的,也可以是不基于模型的。人们可能还在谈论是否应该学习——我们可以学习策略直接产生行为,也可以学习一个客观的价值函数,或者学习一个转移模型以及某些能够告知我们世界动态信息的东西。比如当我旅游的时候,想象我学到了一个转移模型,将它与规划器结合起来,然后画出一个围绕它的盒子,我就可以学到一个策略,而这个策略是以不同的方式储存的。与其他策略一样,它也仅仅是一个策略。
而我更倾向于将其视为一种在计算上的时空权衡。一方面,对于更公开的策略表示,它可能需要占据更多的空间,但是我可以快速地计算出应该采取的行为;另一方面,使用一个非常紧凑的世界动态模型加上一个计划器,我可能只能比较慢地计算出接下来要采取的行为。我认为这一点不存在任何争议,它只是一个「对于我们来说,哪种计算形式最好」的问题。
比如用代数操作做某些推理是合适的,但是如果面对的是控制骑独轮车这样的任务,它对时间响应的要求很高,但是决策空间也要小很多,在这种时候可能我们就需要不同的表示方式。随便举的例子,不一定贴切。
Lex Fridman:您认为感知和规划哪个的难度系数更高?您如何看待通过了解周围的世界来实现感知?
Leslie Kaelbling:我认为一个重要的问题是表示。近来,感知取得了很大的进展,我们可以用来分类图像,玩某些类型的游戏或者将其应用到驾驶汽车等等。我认为,我们对于应该提供怎样的感知还没有很好的思路。
关于模块化,现在有一个很强烈的观点表示,我们不应该创建任何模块化,而应该创建一个巨型神经网络,并对它进行端到端地训练使其完成任务,这才是向前发展的最佳方式。这个观点很难反驳,除非在样本复杂性的基础上,你或许可以说,如果想要在在这个巨型神经网络上实现强化学习,就需要大量的数据以及许多类似损坏的机器人系统等。
对此也仅有唯一一个答案:我们需要在里面构建一些东西(才能降低样本复杂性的需求),比如构建一些结构、构建一些偏倚。从机器学习理论上来看,降低样本复杂性的唯一方法就是以某种方式缩小假设空间——这可以通过内部的偏见来实现。我们有各种各样的理由认为,自然界为人类内置了偏见。而卷积就是一种偏见,一种非常强烈、具有批判性的偏见。
所以我个人认为,我们需要寻找更多像卷积一样,并且还能够解决其他方面的推理问题的东西。在与成像非常相似的空间推理等问题上,卷积给我们带来了很大的帮助。我认为,类似的其他想法,例如向前搜索、抽象概念以及目标等的存在都是非常重要的,但是人们往往不给这些想法萌芽的机会。
Lex Fridman:目标语义、目标空间中的类似于卷积的想法?
Leslie Kaelbling:是的,人们开始研究的图卷积就是与一种关系表征相关的想法。我认为对于感知,研究者们接下来要实现的就是更好地理解感知是如何产生的。之后,我们才能更好地知道要对输出做什么。但我们仅仅试图去创建一个集成智能体,而实际上并不清楚感知的输出应该是什么,也不知道这些输出怎样和其他东西挂上钩。因此,我认为现在迫在眉睫的问题就是,我们能够创建什么样的架构,比如另一个能像卷积网络那样允许我们在上面实现高效学习的真正非常厉害的架构。
Lex Fridman:您对于感知目前的发展现状令人信服的描述,我也赞成。您在教授一门关于智慧的集成的课程,那您认为怎样才能创建拥有人类智能水平的机器人?
Leslie Kaelbling:我不清楚我们到底是否知道该怎样创建这样一个机器人。
Lex Fridman:那您认为机器人需要拥有自我意识、知觉、伦理道德吗?
Leslie Kaelbling:我没怎么考虑过机器人是否需要知觉这一问题,即便是大多数关注这个的哲学家都知道,我们可以拥有行为表现像人类但没有知觉的僵尸机器人。在这个时候,我们会庆幸并不关心这个方面的问题。
Lex Fridman:您是否有从技术角度来思考过自我意识对于机器人的作用?
Leslie Kaelbling:但是自我意识到底意味着什么呢?你需要实现的是让某些系统的部分观察系统的其他部分,然后告知我们是否运行良好,这是很关键的。它们是否具有自我意识,则取决于我们给「拥有自我意识」设定了怎样的标准。但显然,比如说某行代码计算出程序执行的次数,这其实也是一种自我意识。所以这里的边界挺模糊的,可以要求很高、也可以要求很低,我们还在摸索一个合理的标准。
Lex Fridman:您在很多维度上都了解得很长远,但是最吸引该领域研究者的一个研究方向则是让机器人的智能达到人类水平。
Leslie Kaelbling:但是现在对于我来说,最有吸引力的研究方向应该是研究如何选择把哪些东西构建在系统中、把哪些东西交给系统去学习。如果你问我多少年后机器人的智能可以达到人类水平,我甚至都不会参与这一讨论,因为我认为我们错过了很多想法,也不知道到底需要多少年去实现这一目标。
Lex Fridman:我不问您多少年后可以实现,但是我可能需要问,对于我们目前已实现的成就,您印象比较深刻的是哪个?您认为什么才是不错的智能测试?您认为面向机器人自然语言的图灵测试等测试基准怎么样?是否思考过这些问题?
Leslie Kaelbling:我比较反对这些测试基准。我认为我们花了太多的时间在争论哪些事情对于提高机器人的性能更好上。
Lex Fridman:测试基准、数据集或者图灵测试挑战其实可以将研究者们汇聚起来,激励他们创建出表现更好的机器人,因为他们都希望在比赛中获胜,例如自动驾驶领域的 DARPA 挑战赛。您怎样看待它们的价值呢?
Leslie Kaelbling:许多人都认为这些比赛是具有激励性的,是很好的,但是我个人认为它们是反激励性的。不过你们或许能够获得一段有趣的时期——一群聪明的人在比赛中获得了超大的动力,并最大限度地发挥出脑力,有时候可能也会产生很酷的想法,可供我们事后咀嚼。这对我来说并不是一件好事,不过我也并不反对大家这么做。
Lex Fridman:这就跟您之前所说的,某件事以外的所有其他事情都会让它变得更好。下面我们跳过一些问题。您创立了《机器学习研究杂志》(Journal of Machine Learning Research,JMLR)并担任其主编,那出版这一期刊是基于怎样的契机?您如何看待当前机器学习和人工智能领域的出版模式?
Leslie Kaelbling:好的。我之所以会创立《机器学习研究杂志》,故事源自于当时由 Kluwer 创立的叫做《机器学习》的期刊。当时我也是编辑委员会中的一员,我们常常会召开一些会议,向 Kluwer 抱怨,对于图书馆来说杂志太过昂贵并且人们难以在上面发表文章。当时,我们真的希望为这部分人解决这些问题,不过其他人永远只会表示自己的同情而会采取任何行动,所以我们就决定创立一份新杂志。当时也有一份杂志叫做《人工智能研究杂志》,这份杂志也采取同样的出版模型,并且以这一模型存在了 5 年左右的时间,也发展得非常好。
我猜想我们当时都并不知道怎么创立一份杂志,好在这件事情本身并不难。于是,《机器学习》期刊编辑委员会中 75% 的成员都从那里辞职,来共同创立了这份新杂志。
Lex Fridman:所以新创立的这份杂志更加开放?
Leslie Kaelbling:是的,《机器学习研究杂志》是完全开放的。当时我有一个博士后学生 George Kennedy 就想要呼吁这些杂志免费向所有人开放。
由于《机器学习研究杂志》既没有版面费用,也没有访问限制,当时很多人都对这本杂志心存怀疑,认为这是一场欺诈,觉得这是不可能发生的事情。运行这份杂志期间,我在很长一段时间都没有存款,因为需要支付合作律师和 IP 地址的费用,当时杂志一年的运营费用大概为几百美元,现在的花费可能更高些但是也没有高很多。
之所以一切免费,是因为我觉得计算机科学家所具有的能力和自主性,是其他领域的科学家们所不具备的。我们教授们自己很熟悉这些技术,学生也熟悉,我们也认识那些有能力制作和破解网站的人,大家一起动手,一下午时间就能做一个免费开放的学术网站出来。所以基础设施对我们来说不是问题,但对于其他领域的人来说就是比较难实现的事情。
Lex Fridman:所以这一访问开放的期刊不需要声望、也不需要任何其他论文也可以得以出版?
Leslie Kaelbling:事实证明,确实不需要声望。
Lex Fridman:在很早之前,我不记得具体的时间了,当时我评论了一篇您也评论过的论文,记得当时读到您评论说:这篇论文写得非常出色,对您产生了较大的影响,并影响了您未来的评论方式。当时您并不赞成我的观点,但是您将我的评论修改得更好了。这其实可以看出,当时杂志的整个评论过程是存在缺陷的,您认为该怎样才能改进这一过程呢?
Leslie Kaelbling:实际上,这份杂志创立之初,我想要做一些完全不同的事情,但是最终没有实现,这是因为似乎我们更需要的是一份传统的记录杂志,所以基本上,我们把这份杂志打造得跟一般的杂志一样,只不过对外开放访问了。当然了,「出版」什么东西现在越来越变得稀松平常,你随便在哪个学术文本存储网站传一篇文章就算是发表了,并且对于所有的这些内容,我隔天就可以将它们进行出版。因此,将这些内容对外开放是没有任何障碍的,不过我们依旧需要进行策划以及评估,而我没有时间去阅读所有的档案,一般认为出版社会公众所称赞的文章就足够了。
这样的话,你可以说我们不再需要任何期刊了,大家只需要把论文传到学术网站上去,然后人们就可以上传或下载论文,你的简历也就会显示文章获得了多少个称赞。同时我认为期刊在仔细阅读和评注方面也存在其价值。在 Twitter 或者 Reddit 上很难辨别读者对论文是支持、否定还是争议的态度,以及他们是否知道他们在谈论的是什么。所以我认为期刊的第二个目的是,判断我应该重视那些观点。
我不知道如果我有无限的时间,我是否也不会去做这些,因为我希望让机器人来做这部分工作。但如果我觉得我倾向于在出版方向上做更多的事情,我会去实现我最开始想做的另外一件事情,那就是将我重视并且非常清晰的一些人的观点汇聚起来,至于是对外公开还是私人保留,这个我不确定。我们可能不会出版所有的评论,仅仅将为非常出色的论文所写的评论对外开放。
如果一些论文得到 Leslie 的朋友们的评论,并且论文观点得到夸奖,论文作者也可以将其写入简历中:Leslie 的朋友们给了我的论文打了五星好评。这就可以说明论文就跟杂志所收录的论文一样出色。我认为我们应该将很好的评论对外开放,并以某种方式对这些评论进行组织,但当时我真的不知道该怎么做。
Lex Fridman:其实您可以借鉴电影领域的互联网电影资料库(IMDb),那里汇聚了电影评论员,他们会写影评,不过资料库汇中会定期更新非评论员写的影评,这两个部分是分开的。
Leslie Kaelbling:我喜欢公开评论,我认为了解这个过程很有趣。
Lex Fridman:这也许是推进论文评论的一个正确方向,但是可能仍然无法像评论电影或视频游戏那样吸引人。这是我的个人观点,可能听起来有些愚蠢,但是执行评审的趣味和轻松程度取决于用户界面,而作为一位评论家的效率,则意味着向一位优秀的评论家迈进了多远,这些人为因素会起到作用。
Leslie Kaelbling:现在给论文写优秀的评论是一项大投资,现在可以看到的论文数量非常多。每年有 3000 多篇新论文,虽然我不知道每年会新出多少电影,但是现在我认为数量要比每年新出的机器学习论文要少。
我是一个老年人,所以不可避免地会说现在的事情都变化得太快了,像陷在泥巴中一样执着。我认为现在研究者们的眼光变得越来越短视,比如学生们想要发表大量论文,他们认为这样才是令人兴奋、有价值的事情,然后拍拍脑袋写论文,诸如此类。虽然其中的一些工作成果是不错的,但是我担忧的是,这种做法会把那些花两年的时间来思考某个问题的研究者逼走。
在我们那个年代,我们做研究并不发表论文,你可以花数年时间来研究论文,你可以选择研究一个非常难的问题,然后花费大量时间来不断研究、咀嚼这个问题,当你去写作完成论文时,也会经历一段艰巨的时期。我不认为每个人都需要按照这种模式进行研究,但是我认为现在也有一些难度非常高的问题需要研究者以更加长远的眼光来从事这些问题的研究。然而我们现在完全没有激励研究者们采用这种研究方式,这是我所担心的地方。
Lex Fridman:在目前的情况下,对于 AI 未来的发展您有什么期望和担忧?AI 已经经历了多次寒冬、起起伏伏,您认为还会有下一次寒冬到来吗?您是否对于创造出如您所说的机器人更抱有期待?
Leslie Kaelbling:我认为经历这个周期是无法避免的,但是这个起伏的周期曲线实际上是一次比一次高的,就像你用一个有噪声的优化器优化某个函数曲线一样。显而易见,机器学习的出现对于人工智能领域的发展,意义深远且重大,毫无疑问,目前人工智能的发展是比之前更高的。当然,我也认为人们高估了人工智能,吹的牛皮太大,投资者们最终会说,「当初说得那么好听,怎么最后什么都没做到」。这些泡沫未来可能会破灭。但我觉得在实现达到人类水平的人工智能的过程中是不可能一帆风顺地一直向上的。
Lex Fridman:您对于 AI 所存在的威胁是否有短期或者长期的担忧呢?或许短期的担忧会比较少,但是关于将会有更多机器人替代人类工作的担忧呢?
Leslie Kaelbling:我们可以探讨一下效用问题。实际上我之前与一些军事伦理学家有过一次有趣的交流,他们希望跟我探讨自动核武器的问题。他们是非常有趣、聪明并且接受过良好教育的一群人,但是他们对于人工智能和机器学习知之甚少。他们问我的第一个问题就是,你研发的机器人有做过什么你没有预料到的事情吗?我情不自禁地笑出声,因为稍微了解过机器人的人都知道,它们做不出来。而我意识到,他们对于我们怎样对机器人编程的理解是错误的,他们认为我们对机器人编程就像给乐高的 Mindstorm 机器人编程一样,执行前进一米、左转、拍照这些动作。这样的编程方式固然也是对的,但这种机器人如果做一些预料之外的事情,就有点奇怪了。
事实上,我认为这应该成为我一项新的教育任务,如果我需要跟非专业人员交流,我要试图去教给让他们理解:我们控制的其实是机器人中至少一个或多个层次的抽象,同时机器人还存在假设层,可以是规划空间或者分类器空间,此外还有一系列答案和目标函数,然后我们使用一些优化方法,在各个层级优化解决方案,并且我们不知道最终产生的解决方案是什么。我认为沟通这些非常重要,或许其中有一些人了解相关知识,但我还是认为这种沟通这门学科是必不可少的。
现在有很多人在探讨价值对齐的问题,我们可以确定的是,当机器人或者软件系统的能力越来越强时,它们的目标会与人类的目标更加一致,或者说二者间的目标会以某种方式互相兼任,也可以说当它们与我们有不同的目标时,我们也可以用一种很好的方式去进行调和。
因此我认为思考这些术语非常重要,比如说,你无需被机器人世界末日论所吓倒,而是思考价值对齐的目标函数的重要性。每一位从事优化工作的研究者都知道,必须要谨慎考量最终期望得到的东西,比如说研究者们有时候可能获得了最佳的解决方案,然而最终发现目标方向是错误的。
对于我来说,即便在最短时期内,务实也是至关重要的问题,任何一位从算法工程师到目标函数工程师的研究者,这一问题都完全有可能发生,并且会改变我们的思维和方法论。
Lex Fridman:所以可以说,您的研究生涯始于斯坦福的哲学专业,现在又回归到哲学中来。
Leslie Kaelbling:我在上课时也提到过,当机器学习研究者在设计目标函数时,需要「戴上两个帽子」,一个「帽子」是他需要实现的目标是什么;另一个「帽子」则是他的优化器能够将优化实现到什么程度,这都是需要考虑和衡量的要点。
关于机器人会取代人类工作这一担忧,我能理解这件事情非常重要,但我不太了解社会学、经济学,也不是很了解人类,所以我不知道该怎么看待这个问题。
Lex Fridman:确实,这个问题涉及到社会学和经济学的方面,很难去讲清楚。
Leslie Kaelbling:虽然这个问题并不是我的专长,但我还是认为人类思考这个问题很有必要。
Lex Fridman:您认为对于人工智能领域以及您自己而言,短期内哪个领域的研究会是最令人兴奋的?
Leslie Kaelbling:我之前讲述过如何设计智能机器人的事情,智能机器人是我们这个领域中大部分人都想要实现的目标,而大家面临的问题则是,机器人怎样实现最高效的策略?我们可以尝试很多不同的极端方案,其中一个非常极端的方案就是做内省(Introspection),然后编程,这种方法现在的表现还不是很好;另一个极端的方案是我们采用了一大堆神经网络,然后训练它们去完成任务,我同样也认为这个方案无法奏效。
在这个过程中面临的一个问题就是找到中间立场,这个问题同样也不是技术上的问题,仅仅是关于怎样找到最佳实现方法的问题。对于我来说,它很明显是学习和非学习的一种组合,需要考虑的怎样构建这个组合的内容。这也是对我最具有吸引力的一个问题。
Lex Fridman:最后一个问题是,在科幻小说中,您最喜欢的机器人是哪个?比如说《星球大战》中的 R2D2 机器人或是更加现代化的 HAL 机器人。
Leslie Kaelbling:我个人更加关注的是研究机器人的过程。实际上我研究机器人是因为这个研究方向很有趣,而并不在乎我能够研发出怎样的机器人。
Lex Fridman:今天这场美丽的对话就到此结束了,非常感谢您今天的发言。
Leslie Kaelbling:当然,今天的对话很有趣。
(完)
IJCAI 2019 会议召开之前,特邀报告讲者名单将陆续公布,雷锋网 AI 科技评论作为 IJCAI 2019 的媒体特别合作伙伴,也将陆续为大家带来各位特邀讲者的相关报道。届时, AI 科技评论还将奔赴现场为大家带来精彩报道,敬请期待!
点击阅读原文,加入IJCAI顶会交流小组,获取更多IJCAI顶会资讯