CCAI2018演讲实录 | 刘兵:终身学习、连续学习与元学习

2018 年 10 月 8 日 人工智能前沿讲习班

7月28-29日,由中国人工智能学会和深圳市罗湖区人民政府共同主办,马上科普承办的“2018 中国人工智能大会(CCAI 2018)”完美收官。


大会第二天上午,伊利诺伊大学芝加哥分校杰出教授AAAI/ACM/IEEE Fellow刘兵教授作题为《终身学习、连续学习与元学习》的主题演讲。

以下是根据速记整理的大会讲座实录。

刘兵教授  伊利诺伊大学芝加哥分校杰出教授AAAI/ACM/IEEE Fellow


一、从自动驾驶说开去


我们知道,如果一个人在学开车的时候,教练告诉他关于开车的一些基础知识,并会让他实际操作一下,比如尝试刹车等等。之后,经过一段时间的上路学习,这个人就可以拿到驾照开始开车了。但是让机器去自动驾驶,就真的太难了。Google的自动驾驶车已经开了八百万英里,还是不能达到安全上路的水平。人为什么花不多的时间就可以开得不错呢?因为我们在学习开车之前就知道很多东西,我们可能骑过单车,骑过摩托,并且能意识到交通安全的重要性。

另外,一个人即使拿到了驾照,他自己开车时还是会一直学习,并且开得越来越好。这才是真正的Intelligence。机器学习基本上是一个优化的问题,但是人基本没有优化的能力。比如提供一些数据,没有人能够做出一个模型。当然如果花很多时间,可能会找出点规律。这就是简单的Classification问题,单纯提供数据人很难解决,但是如果再提供一些priorknowledge说不定问题就可能迎刃而解了。虽然人可以从data学习,但是humanlearning一直在建自己的知识库。人的学习可能更多是基于知识的学习。我们小时候就做加减法,而不学这些基础直接学解微分方程是不可能学会的,应该有一个知识积累的过程。AlphaGo能够打败最厉害的人类选手,但是它能够走到会场吗?它能用手下棋吗?它赢了会感到很开心吗?理论上是可以的,但是要几百的工程师一起做,这非常难。

所以当前的机器学习基本上还是single-task learning的模式,提供一些人工标注的数据,用一个机器学习算法建一个model,然后把这个model用在实际应用中。人和上述学习模式有什么不一样呢?现在的算法没有像人一样有知识积累,它需要大量的标注数据,特别是在做实际应用时。想用算法实现一个任务可以,但是想把世界上全部东西都做了,不可能。就算可以都做了,明天还会有新的东西需要考虑。人工标注将永无至尽。

人可以做到越学越宽,越学越广,越学越容易学,但是机器现在做不到这一点,终身机器学习就是想做到这一点。这件事情非常难,但是很有研究的必要性,因为对每个任务进行一次学习太过复杂。我们要像一个小孩子一样学习,这句话非常有哲理,startlike a baby。


二、终身学习


终身学习是个非常大的领域,有很多问题有待解决。它也有很多名字,比如说lifelong learning、continual learning,continuous learning, meta-learning,和never-endinglearning,他们都在试图解决终身学习不同方面的问题。通俗来讲终身学习就是可以把学到的知识积累下来,再用到将来的学习里去。对于终身学习来说,世界是开放式的。算法需要发现和解决新的问题,而不是只能解决一个给定问题,它学到的知识并不局限于已有的领域,而可以应用到新的领域上去。终身学习,首先要有持续学习的过程;另外知识一直要积累。终身学习还应有应用知识和自适应新场景的能力。它也要在开放在领域学习,它可以把没学过的东西识别出来并学习它,这么积累的知识就可以越来越多。另外还要做到learningon the job,就是在工作以后还要继续学,要learning while working。现在没有算法真正实现终身学习,现在的算法都在尝试完成这个任务的某一部分,还没有人可以做到把所有的功能都放在一个系统里面。

终身学习领域有很多基本的挑战:比如说, 第一,学到的知识无法判断对错,不知对错知识不敢用来持续学习。现在机器学习对这个东西并不看重,其实需要认真对待;第二,过去积累的知识对新的领域是否适用;第三,如何represent积累的知识:第四,如何把机器学习和人工智能其他方面连在一起,做成稍微比较完整的系统。这些问题都需要解决,也是很多人在研究的方向。

这些挑战在很多应用都表现得很清楚,比如说self-driving cars,chatbots,和machine translation。他们都非常难,因为总是会在学习或者在应用过程中遇到过去没有见有过东西。在遇到这种情况时,系统总会有状况和问题发生。虽然现在有些公司吹嘘自己的自动驾驶技术如何成熟,以及自己的machinetranslation系统已经解决了翻译的问题,事实并非如此。这个世界非常复杂而且一直在变,如果数据永远需要人工标注,永远需要人工翻译,这是不靠谱的,其经济代价也是很大的。总结来说,还是需要机器有自主学习和持续的学习能力,如果不这么做,将来是没有希望的。

最后,我想提一下continuallearning 和 meta learning,这几年不少人在做相关研究。持续学习 (continual learning)主要是在学习一系列任务时试图解决神经网络中灾难遗忘的问题。元学习(meta-learning,也叫learning tolearn)的要点是用很多tasks 做为训练数据来训练一个meta-model,这个meta-model然后可以用于学新的task,这个新任务不需要太多的数据,学的速度上也会更快。


三、总结


对于终身学习来说,知识越多,学习起来会越简单,而且学习质量也会越好。这一领域还需要进一步的发展,目前的算法还只能解决比较单一的问题。Knowledgecorrectness、applicability 和知识的融会贯通,等等 都是很大的挑战,现在就看谁聪明,能把这些任务解决掉。那么我们也许就能够实现强人工智能(ArtificialGeneral Intelligence)。

提问:终身学习遇到一个新的问题时,如何调用原来的知识解决这个问题?机器运用什么机制、原理判断现有知识是否可以用于解决新的问题?

刘兵:这就是上面提到的applicability,现在不同解决方案的做法并不一致,但是基本都是通过任务所给的数据判断过去的知识是否可以被应用。

提问:迁移学习中的正向迁移方式和终身学习有什么区别?

刘兵:迁移学习基本没有知识积累的过程也不持续学习,而终身学习的知识是积累下来的而且它不停的学习。


本文获“中国人工智能学会”授权转载

历史文章推荐:

AI前沿学生论坛 | 朱时超:图神经网络模型及应用进展【附视频+PPT下载】
AI综述专栏|多模态学习研究进展综述
AI综述专栏|神经科学启发的人工智能
【AIDL专栏】陶建华:深度神经网络与语音(附PPT)
新任务引介 | Embodied Question Answering
AI综述专栏 | “博彩众长,自成一家”的神经机器翻译
登录查看更多
13

相关内容

刘兵,伊利诺伊大学芝加哥分校杰出教授,ACM、AAAI和IEEE Fellow。刘兵在爱丁堡大学获得博士学位,研究兴趣包括情感分析,终身学习,数据挖掘,机器学习和自然语言处理。刘兵在顶级会议和期刊发表了大量的论文。其中两篇论文获得了KDD 10年 Test-of-Time奖。刘兵是4本书的作者,其中2本关于情感分析,1本关于终身学习,1本关于数据挖掘。刘兵曾经是2013-2017年ACM SIGKDD的主席,也是很多顶级数据挖掘会议的程序主席,包括KDD,ICDM,CIKM,WSDM,SDM和PAKDD。刘兵同时是顶级期刊的副编辑,包括TKDE, TWEB, DMKD和TKDD。刘兵还是很多自然语言处理,人工智能,网络和数据挖掘会议的领域主席或者高级程序委员会成员。
【ICML2020-华为港科大】RNN和LSTM有长期记忆吗?
专知会员服务
73+阅读 · 2020年6月25日
【ICML2020】持续终身学习的神经主题建模
专知会员服务
36+阅读 · 2020年6月22日
专知会员服务
109+阅读 · 2020年3月20日
台湾大学林轩田机器学习书籍《从数据中学习》,216页pdf
【斯坦福大学Chelsea Finn-NeurIPS 2019】贝叶斯元学习
专知会员服务
37+阅读 · 2019年12月17日
人工智能学习笔记,247页pdf
专知会员服务
173+阅读 · 2019年12月14日
机器也能学会如何学习?——元学习介绍
AINLP
19+阅读 · 2019年9月22日
Meta-Learning 元学习:学会快速学习
极市平台
74+阅读 · 2018年12月19日
CCAI2018演讲实录丨张民:自然语言处理方法与应用
中国人工智能学会
4+阅读 · 2018年8月13日
学习如何学习的算法:简述元学习研究方向现状
深度学习世界
6+阅读 · 2018年4月9日
干货|浅谈强化学习的方法及学习路线
机器学习算法与Python学习
16+阅读 · 2018年3月28日
一文学习基于蒙特卡罗的强化学习方法(送书)
人工智能头条
7+阅读 · 2018年3月13日
【强化学习】强化学习/增强学习/再励学习介绍
产业智能官
10+阅读 · 2018年2月23日
送书 | 深入浅出,一起学习贝叶斯!
AI100
10+阅读 · 2018年2月2日
Risk-Aware Active Inverse Reinforcement Learning
Arxiv
7+阅读 · 2019年1月8日
Meta-Learning with Latent Embedding Optimization
Arxiv
6+阅读 · 2018年7月16日
Arxiv
4+阅读 · 2017年10月30日
VIP会员
相关资讯
机器也能学会如何学习?——元学习介绍
AINLP
19+阅读 · 2019年9月22日
Meta-Learning 元学习:学会快速学习
极市平台
74+阅读 · 2018年12月19日
CCAI2018演讲实录丨张民:自然语言处理方法与应用
中国人工智能学会
4+阅读 · 2018年8月13日
学习如何学习的算法:简述元学习研究方向现状
深度学习世界
6+阅读 · 2018年4月9日
干货|浅谈强化学习的方法及学习路线
机器学习算法与Python学习
16+阅读 · 2018年3月28日
一文学习基于蒙特卡罗的强化学习方法(送书)
人工智能头条
7+阅读 · 2018年3月13日
【强化学习】强化学习/增强学习/再励学习介绍
产业智能官
10+阅读 · 2018年2月23日
送书 | 深入浅出,一起学习贝叶斯!
AI100
10+阅读 · 2018年2月2日
Top
微信扫码咨询专知VIP会员