洪小文:以科学的方式赤裸裸地剖析AI(三)| 人的智慧在哪里?

2017 年 11 月 13 日 微软研究院AI头条 洪小文


编者按:人工智能经历两度寒冬,终于迎来前所未有的智慧风暴。然而,在机器智能升温持续加速的同时,有关人类和机器智慧的比较和质疑也愈演愈烈。人工智能时代的大幕已经拉开,面对来自机器的智慧较量,人类的智慧在哪里?


9月27日,微软亚洲研究院院长洪小文倾情授课由清华大学发起的《脑科学与人工智能对话:基础与前沿》系列课程第一讲,和大家分享在人工智能浪潮之下,人的智慧到底应该去往何处。本文是洪小文院长演讲整理稿的第三篇,文章转载自公众号“知识分子”。


人类的智慧应该是一个金字塔的结构。


金字塔的最底层叫计算和记忆,我们中国一直觉得这属于智慧、智能的部分。我们常常说一个人神机妙算,过目不忘。事实上,所谓的图灵机,冯诺伊曼的架构,计算机里面最重要的,最基本就是CPU与内存,一个管计算,一个管存储。


我记得我人生中受到的最大一次打击是在我小学一年级的时候,跟算盘有关。当时选一些比较聪明的小孩去训练珠算,我没有被选上。老师安慰我说,你体弱多病,就算了,为此我还非常郁闷。我当时觉得算盘打得好的人是神童。可是,今天没有人会浪费时间去学计算,也没有人认为会计算有什么了不起——珠算和计算机,甚至和计算器相比都是以卵击石。


说到内存,我不知道多少人记得家里的电话号码,我是不记得。所以这有两层意义,一是说,算东西和记东西不要跟机器比;第二,我们觉得这是雕虫小技。



不要和机器比模式识别


更高一层是感知,也就是可以听懂话,可以认识东西。


我一直是做模式识别的,其实从学问来讲,尤其是我们这代人,我觉得认真来说,深度神经网络(DNN)最了不起的一件事情,很可能在很大的程度把模式识别给解了。解的意思是说,当有很多的数据,很大的计算量,我可以不做假设,让它用最好的模式去学,而且不用给它额外的知识,甚至用原始数据就行。它是不是解了AI,可以打一个大问号;但是它很大程度把统计的模式识别,模式分类,模式匹配给解了。我承认这个DNN是蛮了不起的。


再谈一下AlphaGo,我觉得AlphaGo最了不起的是把下棋变成了一个模式识别。如果是模式识别,理论上人其实是做不过机器的。道理其实非常简单,我举另外一个例子:比如假设有500个人在做坏事,我们把他们的照片拿给你看,你的工作就是每天在海关看这500个人有没有进来。别说500个人了,50个陌生人要把他们记下来都不可能。而机器却可以硬把它强记下来。


人下棋很大程度上不是在做原始的模式识别。人在棋里面要找到一个路,因为人不可能记那么多模式。人必须要归纳出一些原则性或者算法的东西。人做原始的模式识别是做不过计算机的,所以说难怪AlphaGo打赢了,AlphaGo打赢其实根本不证明AI有什么了不起。AlphaGo基本做模式识别,而DNN基本上解决了模式识别。所以,如果是模式识别,也不要和机器比,是在浪费你的生命。



DNN是一个强大的黑箱


接下来谈一下黑箱、白箱的认知。DNN以及模式识别基本上是黑箱,有输入进去,然后给出输出。


黑箱有黑箱的好处,黑箱不全是坏事。有一本书叫做《没有偏见的思考》,强调黑箱的好处是不会有偏见。人做决定会偏见,而我们人如果能够跳出来用黑箱思考,这个社会就会变得更好。其实这个道理我们中国人也都知道,邓小平说黑猫白猫,会抓老鼠就是好猫,这基本上就是黑箱的想法。


黑箱可以解决什么,但不能说明为什么。另外,黑箱没有办法链接(chaining),就是说没有办法做一些推理。因为黑箱要做推理,唯一的可能就是某一个黑箱的输出,是下一个的输入,否则没有办法做推理。今天的DNN是一个黑箱,但是黑箱很强大。我们都有一个叫做反馈环路(feedback loop)的东西。我们人类的行为都可以用这个来表示,比如做科学实验,改变一些东西,收集一些数据,然后做分析,决定下一步怎么做;做产品也是这样,我们今天叫互联网迭代,要很快地迭代,看客户的反馈。


物联网有两个部分,一块是传感器,一块是执行器(Actuator)。传感器是感知自然界;执行器是操作自然界。如果是闭环,就可以收集大量的数据,做成一个黑箱,虽然它很复杂,举个例子叫做“可预测的维护”(Predictive Maintenance):以前电梯坏了,打电话给电梯公司,电梯公司可能隔两三天派人来,查看下,然后回去分析,隔几个礼拜,拿来零件换一下,电梯可能一两个礼拜都不能用。现在,在电梯上装各种传感器,然后收集数据。这时候,如果看到数据某个样子(预兆需要维护),就可先派人去维修。电梯是非常复杂的,有各种因素,但是我们可以用这个方法,把它变成一个闭环,变成一个黑箱来处理。


所以AI为什么在工业界那么红火?电梯维护是一个例子。这个例子可以引申到任何地方,比如油管检测,人的身体的监测。前几年的穿戴式非常红火。如果传感器真的很准确,测到身体的任何一样生物信号,那很了不得。就拿癌细胞来讲,将来有可能在癌细胞超过一个临界值之后,就知道马上要去医院,有利于早期治疗。其实今天大家讲AI,数据非常重要,今天的AI没有数据是活不下去的。第二个要有很大的计算,我们叫云,缺一不可。



有露出就有脑补


我们刚刚谈的AI,其实是一种认知:我们不仅知道电梯快出问题了,还知道需要怎么样的修理。也就是说我知道,我有认知,所以的确计算机今天做了认知的一些东西,但不是全部。


John Seale是一个哲学家,他提出了一个叫做中国房间的论题(Chinese room)。作者提出假设有一台锁在房间中的机器可以完全无障碍的与隔壁房间里面的会讲中文的人交流,人无法判别交谈对象是人还是机器,即便如此,也并不能代表机器能“理解”这样的交谈。他提到了图灵测试:如果这个房间里面可以出一个像人一样的回答,我们就说这个机器通过图灵测试,跟人的智慧就是一样。


其实中国房间所讲的就和我们今天的翻译是一样的。今天的翻译就是查表,然后做回归。你给机器一张纸,机器也不知道是什么字,一对照是这样的(字词)组合,就给出这样的组合,没有理解在里面。其实AI有两种,一个叫强人工智能,一个叫弱人工智能,弱人工智能就是模拟,是根本不了解,强人工智能是真的了解。


不过,这里可能会有人挑战我:如果机器通过了图灵测试,那就可以的呀。我们学语音的,有一个概念叫做鸡尾酒效应。我们平常去参加鸡尾酒会,一个很小的空间里面很多人在讲话,有人讲中文,有人讲英文。不过,站在你旁边的一个人,即使大部分的话你都没听到,还可以交流,为什么?通常我们站在一个人旁边,大家也都相互认识,知道他的背景,所以即使听到几个音,也会猜得八九不离十。


今天没有一个AI可以做到这点,但是人为什么可以做到?人不是真正听到他讲的每句话,人不是把信号处理过才知道。人使用的就是之前谈到的“产生并测试”(generate and test)。如果是一个陌生人,你大概是没有办法的;但如果是一位朋友,因为有关于这个人的所有知识,讲几个音,大概猜猜就可以知道了。我们做认知,甚至感知的时候,都用了其他的知识,事实上视觉也是一样。假设有一只大象,你只要看到任何一个露出的部分,就可以知道它是一个大象,你在脑补其它的地方。你脑中闪过好几个假设,这就叫做产生(generate),然后测试,然后你就知道大概是这个意思。


今天机器翻译的东西,怎么可能做到这些?就算要做,也要回到最原始的知识表示,还有常识推理,今天这些都没有人谈了。什么叫常识?就好像有一个人吞了一个苹果,用常识也可以知道,一个人不可能吞一个苹果,这个叫做强AI,真的用理解去做事情。


人的认知事实上是白盒子,在里面要做因果分析。因果分析是非常复杂的,要回答为什么,而不只回答是什么,更不要说很多事情都是开放的系统。产品就是一个开放的系统,到底下一个产品该放哪些特性,本身就是一个开放的系统,可以用AI去自动化么?不可能。还是要人的智能加机器的智能。当然,我还是要用大数据的分析,给一些线索,来决定人来做什么。或者投资也不太可能被AI取代,因为每一个投资方案都不一样。拿微软做一个例子,我们要考虑要不要买领英,这种很大的事情一辈子就做一次,你不可能去让一个机器做,因为这次搜集的数据不一定下次还有用。产品也是,做一个错误的产品,不知道要花多少时间去改正它。这种一辈子只做一次的决定,一定是人的智能和人工智能一起做。



创造力不是大数据


算法的定义是通过一步步的操作来解决问题。什么叫创造力?就是你能够产生一个新的算法,去解一个未解的问题,或者更好的去解一个已解的问题,这就叫做创造力。就这样的定义来讲,我觉得在数学上,推理上很多东西,都是创造力。比如说很有名的高斯,他小时候很聪明,常常去找数学老师问问题。数学老师觉得他很烦,有一天说,你从1加到N,数学老师想他怎么也得花半个小时。结果高斯几分钟就有了答案,创造了一个新的公式。这显然是一个算法。我讲这个例子有一个特殊的原因,我们之前说人和计算机比计算没有可比性。假设N是一个很大的数,计算机从1加到N,而人用高斯发明出的公式,谁会最早算出答案?还是计算机。


如果你同意这个的话,那我们来谈一下AlphaGo。李世石,柯洁其实非常可怜。下棋包含两件事情,一件是算法,另外要去算才有答案。所以李世石和柯洁,下棋的算法来自他们自己,算也要自己去算;可AlphaGo的算法来自于人,来自于一个团队,有几万台机器在云那边去算。


如果今天人用比较好的算法,还和机器有得一拼的话,你会觉得谁的算法比较好?肯定是人的算法大概比较好,因为机器的算力比人高那么多。所以AlphaGo打败人,对AI来说不算什么,根本和创造力一点关系都没有。更何况,我觉得其实象棋也好、围棋也好,被他们这样一做,就跟珠算一样,从此没有人认为这是有智慧的东西,也没有人会把时间浪费在这里。


科学发展,肯定是新的算法,事实上新算法,充满了每一个地方。比如说今天的出租车,该派哪一个车去;或者说快递公司在送快递的时候,我们说旅行中的销售员问题(Travelling Salesman Problem),先送这里还是先送那里,怎么去优化,这全都是算法。甚至于有些算法不是那么明显的,比如说教书,我们常常有这种经验,有一个东西你觉得最好的教法是这样,但是你这么教,有的学生可能就不能接受,有时候你换一个角度去教,他就可以接受,算法改变了一个人从不懂到懂得。


去年美国大选,前年英国脱欧,我知道可能投某一方是对的,但是我这个票就是投不下去。很多时候我知道你是对的,同时我也愿意接受,甚至把票愿意投给你,或者叫做同理心等等,这个其实跟算法是有关联的,至于怎么变成算法,我还在思考。


最后提一下,创造力绝对不是一个大数据的问题,绝对是一个小数据的问题。我举一个例子,去年的引力波是爱因斯坦在100多年前提出来的一个假设。当年不要说大数据,我觉得是无数据,因为100年以后我们用最新的设备勉勉强强测到有一点那个影子。他当时怎么想到这个东西的?肯定不是大数据。如果有大数据以后,我说有引力波,我相信一个小学生也可以做出来。所以,没有数据怎么产生创造力,我不认为有人知道。大家在比AI跟人的时候,不要忘记两点,一点今天所有的AI的算法全部来自于人,都是人写出来的。如果有人说我今天能写一个程序,自己产生一个程序或者新的算法,去解一个新的问题,这两者是不一样。


我写一个程序,面对我知道的问题,能够做出解决方案,这就像下棋,加强学习就是这个例子。可如果我写出一个程序,能够解决一个新的问题,我都不知道这个新的问题是什么,这个新问题对照一个解法,这是没有的事。实际上GPS(一般求解器),我们没有,我当然希望有一天有,但实在没有。


大家再看一下脑神经学和认知心理学,但至少大部分人相信,我们人的左脑、右脑所处理的事情不太一样。所以似乎计算机只是一个左脑,而我们的创造力大部分在右脑。右脑加左脑,其实本来就是一个大胆假设、小心求证的过程,所以我觉得AI和HI要结合在一起,更不要说计算机是我们发明出来的。



缺点碰撞创造力


智慧,我实在不知道怎么定义,我也觉得我没有资格去定义。因为我不能定义,我只能讲我自己到目前为止,我了解的东西跟智慧有关的,就是《倚天屠龙记》张三丰教张无忌太极剑法的故事。第一次张无忌说,太师傅,我这次记得了七成;太师傅说,很好,有进步;第二次张三丰又舞了一次,张无忌说,太师傅,这次我只看懂了一半,张三丰说很好;第三次张无忌说,太师傅,我完全不记得了,张三丰说,你融会贯通了。


我们在看看意识和想法。有一个镜子测试( Mirror Self Recognition Test, MSR),我的理解是这样的:如果在你的额头上贴一个便利贴,你马上知道这不是属于我们的一部分,就把它拿掉,这是一个恶作剧——就是我能不能知道这个东西是我的一部分。我的理解,首先大部分的动物是不通过的,我们喜欢的狗跟猫基本上没通过,大部分的猴子也没通过,但是好像猴子经过一些训练以后是可以通过的。据我所知,海豚、金鱼是通过的。


但是这个有争议,有人会说,它其实知道这不是它的一部分,只是它不觉得麻烦,所以没有拿掉。但我想自我意识不是每个动物都有的。另外一个是思想和身体之间的关系,笛卡尔说我思故我在。有一派是纯粹的唯物派,所以思想就是你的软件,硬件就是脑,要研究脑。有另外一派觉得不是,至少还有一个脊椎,思想和身体是一体的。我自己本人比较倾向于这一派。因为人有时候疼痛或者感觉,事实上是会影响我们的思维的。如果说只有脑的话,把身体拿走,其他地方的感官不影响思维,是不是这么简单呢?如果就是一个软件跟硬件的关系,那软件来自于哪里?有一本书,是认知心理学的书,它也做一些脑神经的东西,一个叫Gelernter的教授写的一本书,叫Tide of Mind: Uncovering the Spectrum of Consciousness。他把一个人的头脑大概分成两个周期,一个叫High spectrum,就是通常我们起床喝一杯咖啡,我们意志力很集中的时候,可以做计算,做推理,做逻辑,做很精确的东西。Low spectrum就是我们累了,打哈欠了,做白日梦,甚至于就睡着了。意志力不集中,这时候你计算或者记忆就会失误,就会算错。这时候我们可以接触到深层的记忆,但绝对不充分也不必要。似乎这些东西跟创造力有点关系。我这里举了一个例子,贝多芬做第九交响曲的时候,他是全聋了,我们绝对不能说他是High spectrum。甚至于有一个化学家发现苯环结构的时候,他说他在睡觉的时候梦到一条蛇,自己咬到自己的尾巴,形成了六角形。


人其实不是在意志力集中去想问题的时候有高的创造力,通常是在意志力没有那么集中,创造力比较高。不过,虽然想法很重要,但也要小心求证。中国也好、西方也好,很多诗人、很多作家常常喝得酩酊大醉,的确是意志力不集中,但创造力就出来了。


但是我觉得很好玩的一点是,我觉得人的缺点反而帮助了我们的创造力。什么意思呢?就是人意志力不集中,经常会算错。但有人说这个简单,让计算机每十题故意算错一题,我保证这样的计算机也没有创造力。但是人的这种缺点似乎帮助了我们的创造力,这是一个很好玩的事情:因为人不完美,人的记忆会错,人会算错,但是我们在有缺点的时候,我们会创造出很好的东西。


智慧,我们一般人认为人年纪越大,是比较有可能有大智慧。人年纪越大,我们的脑是退化的,有一天会死去,可是智慧来了,我觉得这可能是人性。


你也许还想


● 洪小文:以科学的方式赤裸裸地剖析AI(二)|从寒冬到复兴

● 洪小文:以科学的方式赤裸裸地剖析人工智能 | 混沌初开

● 二十一世纪计算 | 洪小文:帮助机器和人类共同学习



感谢你关注“微软研究院AI头条”,我们期待你的留言和投稿,共建交流平台。来稿请寄:msraai@microsoft.com。


登录查看更多
0

相关内容

模式识别就是通过计算机用数学技术方法来研究模式的自动处理和判读,把环境与客体统称为“模式”。随着计算机技术的发展,人类有可能研究复杂的信息处理过程,其过程的一个重要形式是生命体对环境及客体的识别。模式识别以图像处理与计算机视觉、语音语言信息处理、脑网络组、类脑智能等为主要研究方向,研究人类模式识别的机理以及有效的计算方法
深度学习可解释性研究进展
专知会员服务
98+阅读 · 2020年6月26日
【ACL2020】利用模拟退火实现无监督复述
专知会员服务
13+阅读 · 2020年5月26日
多智能体深度强化学习的若干关键科学问题
专知会员服务
188+阅读 · 2020年5月24日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
中科大-人工智能方向专业课程2020《脑与认知科学导论》
新时期我国信息技术产业的发展
专知会员服务
70+阅读 · 2020年1月18日
【BAAI|2019】用深度学习模拟原子间势,王涵  (附pdf)
专知会员服务
17+阅读 · 2019年11月21日
王维嘉:暗知识——机器认知的颠覆
亚布力中国企业家论坛
5+阅读 · 2019年3月12日
手把手 | 事理图谱,下一代知识图谱
大数据文摘
52+阅读 · 2018年12月29日
人工智能的阴暗面
计算机与网络安全
6+阅读 · 2018年1月8日
投资,重要的是未来
雪球
5+阅读 · 2017年12月17日
热点|清华才女飙泪谈人工智能:这才是我最大的担心
机器人大讲堂
3+阅读 · 2017年12月4日
如何从Python起步学习AI
七月在线实验室
5+阅读 · 2017年11月28日
观点 | 计算机视觉,路在何方
微软研究院AI头条
6+阅读 · 2017年6月21日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
6+阅读 · 2019年8月22日
Arxiv
5+阅读 · 2019年6月5日
Arxiv
6+阅读 · 2018年11月29日
VIP会员
相关VIP内容
深度学习可解释性研究进展
专知会员服务
98+阅读 · 2020年6月26日
【ACL2020】利用模拟退火实现无监督复述
专知会员服务
13+阅读 · 2020年5月26日
多智能体深度强化学习的若干关键科学问题
专知会员服务
188+阅读 · 2020年5月24日
机器学习速查手册,135页pdf
专知会员服务
340+阅读 · 2020年3月15日
中科大-人工智能方向专业课程2020《脑与认知科学导论》
新时期我国信息技术产业的发展
专知会员服务
70+阅读 · 2020年1月18日
【BAAI|2019】用深度学习模拟原子间势,王涵  (附pdf)
专知会员服务
17+阅读 · 2019年11月21日
相关资讯
王维嘉:暗知识——机器认知的颠覆
亚布力中国企业家论坛
5+阅读 · 2019年3月12日
手把手 | 事理图谱,下一代知识图谱
大数据文摘
52+阅读 · 2018年12月29日
人工智能的阴暗面
计算机与网络安全
6+阅读 · 2018年1月8日
投资,重要的是未来
雪球
5+阅读 · 2017年12月17日
热点|清华才女飙泪谈人工智能:这才是我最大的担心
机器人大讲堂
3+阅读 · 2017年12月4日
如何从Python起步学习AI
七月在线实验室
5+阅读 · 2017年11月28日
观点 | 计算机视觉,路在何方
微软研究院AI头条
6+阅读 · 2017年6月21日
Top
微信扫码咨询专知VIP会员