7月28-29日,由中国人工智能学会和深圳市罗湖区人民政府共同主办,马上科普承办的“2018 中国人工智能大会(CCAI 2018)”完美收官。
大会第二天上午,伊利诺伊大学芝加哥分校杰出教授AAAI/ACM/IEEE Fellow刘兵教授作题为《终身学习、连续学习与元学习》的主题演讲。
以下是根据速记整理的大会讲座实录。
刘兵教授 伊利诺伊大学芝加哥分校杰出教授AAAI/ACM/IEEE Fellow
一、从自动驾驶说开去
我们知道,如果一个人在学开车的时候,教练告诉他关于开车的一些基础知识,并会让他实际操作一下,比如尝试刹车等等。之后,经过一段时间的上路学习,这个人就可以拿到驾照开始开车了。但是让机器去自动驾驶,就真的太难了。Google的自动驾驶车已经开了八百万英里,还是不能达到安全上路的水平。人为什么花不多的时间就可以开得不错呢?因为我们在学习开车之前就知道很多东西,我们可能骑过单车,骑过摩托,并且能意识到交通安全的重要性。
另外,一个人即使拿到了驾照,他自己开车时还是会一直学习,并且开得越来越好。这才是真正的Intelligence。机器学习基本上是一个优化的问题,但是人基本没有优化的能力。比如提供一些数据,没有人能够做出一个模型。当然如果花很多时间,可能会找出点规律。这就是简单的Classification问题,单纯提供数据人很难解决,但是如果再提供一些priorknowledge说不定问题就可能迎刃而解了。虽然人可以从data学习,但是humanlearning一直在建自己的知识库。人的学习可能更多是基于知识的学习。我们小时候就做加减法,而不学这些基础直接学解微分方程是不可能学会的,应该有一个知识积累的过程。AlphaGo能够打败最厉害的人类选手,但是它能够走到会场吗?它能用手下棋吗?它赢了会感到很开心吗?理论上是可以的,但是要几百的工程师一起做,这非常难。
所以当前的机器学习基本上还是single-task learning的模式,提供一些人工标注的数据,用一个机器学习算法建一个model,然后把这个model用在实际应用中。人和上述学习模式有什么不一样呢?现在的算法没有像人一样有知识积累,它需要大量的标注数据,特别是在做实际应用时。想用算法实现一个任务可以,但是想把世界上全部东西都做了,不可能。就算可以都做了,明天还会有新的东西需要考虑。人工标注将永无至尽。
人可以做到越学越宽,越学越广,越学越容易学,但是机器现在做不到这一点,终身机器学习就是想做到这一点。这件事情非常难,但是很有研究的必要性,因为对每个任务进行一次学习太过复杂。我们要像一个小孩子一样学习,这句话非常有哲理,startlike a baby。
二、终身学习
终身学习是个非常大的领域,有很多问题有待解决。它也有很多名字,比如说lifelong learning、continual learning,continuous learning, meta-learning,和never-endinglearning,他们都在试图解决终身学习不同方面的问题。通俗来讲终身学习就是可以把学到的知识积累下来,再用到将来的学习里去。对于终身学习来说,世界是开放式的。算法需要发现和解决新的问题,而不是只能解决一个给定问题,它学到的知识并不局限于已有的领域,而可以应用到新的领域上去。终身学习,首先要有持续学习的过程;另外知识一直要积累。终身学习还应有应用知识和自适应新场景的能力。它也要在开放在领域学习,它可以把没学过的东西识别出来并学习它,这么积累的知识就可以越来越多。另外还要做到learningon the job,就是在工作以后还要继续学,要learning while working。现在没有算法真正实现终身学习,现在的算法都在尝试完成这个任务的某一部分,还没有人可以做到把所有的功能都放在一个系统里面。
终身学习领域有很多基本的挑战:比如说, 第一,学到的知识无法判断对错,不知对错知识不敢用来持续学习。现在机器学习对这个东西并不看重,其实需要认真对待;第二,过去积累的知识对新的领域是否适用;第三,如何represent积累的知识:第四,如何把机器学习和人工智能其他方面连在一起,做成稍微比较完整的系统。这些问题都需要解决,也是很多人在研究的方向。
这些挑战在很多应用都表现得很清楚,比如说self-driving cars,chatbots,和machine translation。他们都非常难,因为总是会在学习或者在应用过程中遇到过去没有见有过东西。在遇到这种情况时,系统总会有状况和问题发生。虽然现在有些公司吹嘘自己的自动驾驶技术如何成熟,以及自己的machinetranslation系统已经解决了翻译的问题,事实并非如此。这个世界非常复杂而且一直在变,如果数据永远需要人工标注,永远需要人工翻译,这是不靠谱的,其经济代价也是很大的。总结来说,还是需要机器有自主学习和持续的学习能力,如果不这么做,将来是没有希望的。
最后,我想提一下continuallearning 和 meta learning,这几年不少人在做相关研究。持续学习 (continual learning)主要是在学习一系列任务时试图解决神经网络中灾难遗忘的问题。元学习(meta-learning,也叫learning tolearn)的要点是用很多tasks 做为训练数据来训练一个meta-model,这个meta-model然后可以用于学新的task,这个新任务不需要太多的数据,学的速度上也会更快。
三、总结
对于终身学习来说,知识越多,学习起来会越简单,而且学习质量也会越好。这一领域还需要进一步的发展,目前的算法还只能解决比较单一的问题。Knowledgecorrectness、applicability 和知识的融会贯通,等等 都是很大的挑战,现在就看谁聪明,能把这些任务解决掉。那么我们也许就能够实现强人工智能(ArtificialGeneral Intelligence)。
提问:终身学习遇到一个新的问题时,如何调用原来的知识解决这个问题?机器运用什么机制、原理判断现有知识是否可以用于解决新的问题?
刘兵:这就是上面提到的applicability,现在不同解决方案的做法并不一致,但是基本都是通过任务所给的数据判断过去的知识是否可以被应用。
提问:迁移学习中的正向迁移方式和终身学习有什么区别?
刘兵:迁移学习基本没有知识积累的过程也不持续学习,而终身学习的知识是积累下来的而且它不停的学习。
本文获“中国人工智能学会”授权转载
历史文章推荐: