人工智能社会学—未来的新兴学科?|AI观察

2017 年 9 月 12 日 腾讯研究院 张江

从个体层面来说,你并不比孔子那个时候的人聪明多少,然而现代人类整体的能力却是古人所无法企及的。是文明与科技——这个人类集体的创造物反过来赋予了每个人类个体更高的智能。同样的道理,个体层面的人工智能存在着能力上的天花板,只有将成千上万的AI链接、整合起来,甚至创造出AI自己的文明,才可能为每一个个体AI赋能。



还记得这张图吗?在上一篇文章中《从万物有灵到机器掌管世界》,我们将整个世界按照人类是否能够理解的程度划分了三个区域,现在我们将进入“人工智能自己玩”这个区域……


聊天机器人、推荐算法、智能助理,我们已经被越来越多的人工智能所包围。就像我们现在越来越多地依赖微信一样,未来的AI程序将会形成每个人的数字化外衣,我们需要透过这层外衣才能间接地与外在世界互动。智能程序可以在一定程度上进行自主思考,所以,它们之间会形成一个庞杂的社会。放眼未来,我认为这种大趋势必然会催生一门新兴学科的诞生——我把它叫做“人工智能社会学”(Socialogy of Artificial Intelligence),它将会在未来世界起到越来越大的作用。


01


人工智能的社会


实际上将Social(或者Socialogy,Society)与人工智能(Artificial intelligence,或者Agent等)词汇相结合的学科已有不少。在20世纪90年代的时候,复杂性科学兴起,人们忙于利用计算机建模与仿真的方式来模拟各种复杂系统。社会系统显然是这类模拟程序所关注的一个主要对象。


最近的AI研究又呈现出了一种新的趋势,就是将深度学习研究与群体智能(collective intelligence)相结合。尽管由于算力的限制,目前所考虑的智能体数量一般都很少,但是可以预期在不久的将来,运用深度学习技术构建的集体智能框架将会出现。


随着算法经济的兴起,现实世界中的智能程序开始彼此相连,于是为这些智能体制定交易规则成为了一种新的问题。人们发现,本已备受诟病的主流经济学(Mainstream)也许更适合描述智能体,而非人类。这是因为,智能体可以更符合“理性行为人”的基本假说。


所有这些本质上都是在研究人工智能构成的社会,尽管它们的本质目的并不是相同的。接下来,就让我们沿着历史的顺序,考察人工智能社会的研究思路。





人工社会



早在1971年,著名的经济诺贝尔奖获得者Thomas Schelling就构造了一个人工智能社会Segaration,用来研究种族隔离问题。纽约一直是一个多民族聚居的城市,Schelling敏锐地发现,同种族的人会相互聚集在一起。尽管后来纽约政府曾试图强制将不同种族的人混合在一起,以促进民族和谐,但是经过长时间的演化,家族的不断搬迁,最终仍然形成了多种族分割的现象。为了理解这一社会现象,Schelling开发了一个简单的人工社会模型Segaration,该模型不仅重现了种族分割现象,还从模型的角度证明了政府强行将不同种族混合在一起的尝试是徒劳的。更重要的是,Segaration成为了社会学仿真的开山之作,后来Schelling还荣获了诺贝尔经济学奖。


Netlogo中的人工社会模拟程序Segaration,其中红色和绿色格点分别表示两种不同的种族居住地,黑色格点表示空地。每个红(绿)格点都按照如下规则演化:当邻居中异族比例超过一定阈值(参数p)的时候,就搬家,随机找一个没有人的地方住下来。最终,模型有可能演化到一种稳定的形态。如上图所示,不同种族分别住在了不同的区块。


密西根大学的著名政治学家R. Axelrod也是研究人工智能体社会学的先驱,他早在1984年的时候就组织了多轮计算机实验以探讨合作的演化。它首先采用人工参与的方式,即向全世界学者征集人工智能程序,并将这些程序放到同样一个竞技场内进行交互。然后,竞技场会任意选择两个程序,并让他们玩所谓的囚徒困境博弈,以计算两个程序的相应得分。最后,经过多轮比赛后,得分最高者却是一个超级简单的程序,叫做“针锋相对”(Tit for tat),它的策略是首先合作,然后只要对方叛变,他就果断地不合作。


囚徒困境博弈,该博弈凸显了合作的复杂性。尽管对于双方整体来说,都合作是最好的选择,但是该博弈的纳什均衡解却是都背叛。


第二场比赛则完全没有人类来参与,而是允许程序自己通过遗传算法而不断地改进程序,看最终进化是如何在这个人工社会中起作用的。研究结果表明,合作作为一种进化稳定的结果是可以自发演化出来的,而且遗传算法甚至可以发现比人手工编写更好的程序。


另外一个早期的人工社会模型要算Arthur和 Holland合作的人工股市模型(Artificial Stock Model)。与传统的股市交易模型不同,Arthur等人放弃了每个交易主体(Agent)都必须具有全部的信息、完美的理性等强假设,取而代之的是Agent可以通过历史信息不断的学习,修改自己对股价走势的预测; 也就是说人工股市是一个不断变化的永不平衡的系统,Agent之间的关系是一种既有竞争又有合作的协同进化关系。该模型成功的模拟出了真实股 市中的“股市心理”,以及狂涨狂跌的非线性突变现象。目前,运用人工股市模型,人们可以通过更改模型的参数来模拟、预测某种新的股票政策是否可以达到预期的效果。


1996年,Epstein和Axtell在计算机中构造了一个人工智能农场,叫做Sugarspace,其中可以时不时地长出“糖果”(Sugar)或者“香料”(Spice)出来。之后,他们将一系列人工智能体放到其中,并为这些Agent赋予简单的程序,让它们在这个开心农场中开采、交易、繁殖、社交,……。所有这些有趣的实验结果被他们总结成了一本书,就叫做“养殖人工社会”(Growing Artificial Societies)。


“Growing Artificial Societies”一书封面


ASPEN模型是美国Sandia国家试验室在 1996 年开始开发的一个基于Agent的经济系统模型。这是一个较大规模的模拟了包括公司、住户和政府等各 种Agent的经济系统模型。采用先进的建模技术以及大规模并行计算机的支持,ASPEN模型成功的应用于美国宏观经济系统和过渡经济的研究中。


……之后,这种人工模拟社会的方法被应用于从经济学、金融学,到组织学、文化学、社会学等各个方面。更多详情请点看本人多年前写的一篇综述文章《人工社会——基于Agent的社会学仿真》点击阅读原文可以获取。


集体智能(Collective Intelligence)


90年代可以说是多个体研究(Multi-agent system)大爆发的时代,另外一个引人瞩目的研究领域就是所谓的集体智能,它是希望为每个微观个体设计简单的规则,从而在整体实现期望的属性,例如求解工程中的优化问题。顺便说一下,集智俱乐部一词的来源就是集体智能。


集体智能的一个最典型例子就是蚂蚁群体(Ant colony)。我们都知道每一只蚂蚁都不够聪明,但是成千上万只蚂蚁组成的蚁群却具有超凡的群体智慧。例如,南美洲有一种蚂蚁叫做行军蚁,当森林火灾发生的时候,它们可以聪明地聚集成一个大蚂蚁球,快速滚动出火灾包围的区域。实际上,这个过程会牺牲掉大量蚂蚁球外围的蚂蚁,但是为了集体的生存,它们会“聪明地”想出这个拯救办法。


再比如,蚂蚁群体不仅能够找到从巢穴到食物的通路,还能够找到在所有可能通路之中最短的一条,如下图所示:



随着时间推移(从左往右),蚂蚁最终会收敛到若干路径中最短的一条上面去。通过计算机模拟人们知道,只要让蚂蚁可以释放信息素(一种气味),这种信息素又能吸引更多的蚂蚁聚集过来,那么这群蚂蚁智能体就能找到最短路。


一旦理解了其工作原理,人们便可以借鉴蚂蚁的智慧,通过模拟蚂蚁与信息素交互的规则,可以将蚁群的智慧应用于工程实践之中,例如下面两张图就展示了用蚁群算法解决路径导航问题,和推销员旅行问题。


运用蚁 群算法最终找到了地图上的最优导航路径

运用蚁群算法解决TSP问题(Travel Salesman Problem,旅行推销员问题,即要求一个推销员要走遍所有城市,不能重复,并且还要回到起点,同时要求整个路径要最短。)


借鉴大自然中的群体智慧,人们开发了不少集体智能算法,这些算法只要让每一个简单个体遵循非常简单的计算规则,就可以智能地解决一系列复杂的难题。从某种意义上说,神经网络其实就是利用了群体智能,因为每个简单的神经元都遵循简单的规则来完成信息的发放,但是大量神经元整体却可以产生智慧。


深度学习助力



然而,这些程序虽然展现了丰富多彩的集体现象,但因为它们受制于早期计算能力的限制,只能通过很简单的代码构造智能体,远不能模拟复杂的人类思维。好在早期这些人工社会、集体智能研究者们更加关注的是简单程序在整体社会层面所体现出来的涌现结果,因此,对单个智能体是否足够逼真并不十分关心。


然而,随着计算力的提升,以及深度学习技术的突飞猛进,人们已经具备了利用深度学习来建模Agent主体的能力了。当我们把每一个人工智能社会中的简单程序替换成具备“深度学习”能力的大型人工神经网络的时候,整张人工智能程序的大网将会发生什么就不是那么一目了然了。事实上,现在的人工智能科学家们已经开始了这样的研究,他们研究兴趣的焦点已经从单个的深度神经网络过渡到了多个神经网络,并且再让这些神经网络本身联网,只不过目前联网的智能体数量并不多。


下面,我将分别介绍几个研究思路:



GAN的框架 ,其中生成模型(Generative Model)和判别模型(Discriminitive model)就是两个神经网络构成的智能体


比如,Ian Goodfellow等人提出的对抗式神经网络就是一种两体人工智能,其中一个神经网络负责生成图像,另一个负责辨别究竟是神经网络生成的还是真实的图片。在这样一种框架下,我们可以同时训练两个网络,结果却比仅仅训练一个生成网络得到了好得多的效果。这也许恰恰就是蕴含在集体之中的神秘力量。


我们还可以将这种二体的竞争模式扩大,创造更多更复杂的玩法。比如Jun-Yan Zhu等人就将二体扩充到了4体,分别有两个生成器和两个判别器,并且让它们按照如下的方式链接起来:



这里蓝色的框是生成器,粉色的圆圈框是判别器。整个系统可以自动生成图片。例如如果我们将一张马的图像输入进来,它就可以吐出一张图像,把马变成了斑马。它是怎么做到的呢?首先,生成器G会根据图片X生成图片Y,DY保证了这个Y要足够真实。然后再把这个Y输入给生成器F转化为图片X',还要要求这个X'要和X足够靠近。类似的,如果从任意图像Y经由生成器F转化为图像X,再从G转化为Y',在整个的过程中,要求:1、经过DY判断,Y要足够逼真;2、X与X‘要足够相似;3、经由DX判断,F生成的X要足够逼真;3、Y与Y‘要足够靠近。这就可以使得网络学习到了X域(所有包含白马的图像)到Y域(所有斑马图像)的对应。


这样,我们只要输入给这四个Agent两组图片,比如一组图片全部是马,另一组图片全部是斑马,经过训练,就可以将一组图像映射为另一组图像,例如将马变成斑马、将包包上色、以及将塞尚的风格迁移到我的照片中来。



还有更复杂的玩法,Taeksoo Kim等人将相互连接关系制作了一个五花大绑,结果网络不仅可以生成类似于真实的图像,也能够让输入输出图像形成对应。

Cross Domain GAN架构示意图,其中包括四个生成器和两个判别器


多体的引入让GAN系列的研究如火如荼,然而生成器和辨别器的关系就像是警察和骗子,生成器是造假者,辨别器是抓造假者的警察,它们构成了一种相互对抗的竞争关系。


然而,多体关系不仅仅包括对抗性竞争关系,更多的则是合作、协调、配合的关系。这方面的研究最近也是越来越多了起来。


  • 交流与合作


前不久,Facebook爆料,他们的人工智能程序们在交流的过程中发明了特属于人工智能的语言,如下所示:



这是什么?难道是人工智能也会“鬼搐”了吗?


实际上,这就是LSTM神经网络在未训练好的时候经常会表现出来的行为,似乎FB在搞笑。但是,Facebook的科学家们的确在研究多个AI程序如何在特定的条件下产生语言。他们将一群Agent放置到了一个模拟的环境中,并赋予它们相互交流的能力:它们可以通过发送一些在人类看来无意义的信号而彼此通讯。

这个研究通过在机器中营造了一个模拟的环境,让多个Agent完成相互作用,从而演化出自己的语言。每个Agent都需要到达目标节点(landmark),并让它的伙伴也达到规定的地点。在这种情况下,Agent可以通过发出一系列的抽象信号(Utterance)来相互协调。之后研究人员对这些信号进行了一定的解读,并发现它们可以形成有体系的符号及其意义。


在另一个实验中,研究人员要求两个聊天机器人可以针对图像完成多轮对话。其中,一个机器人可以将它所看到的图像尽可能地描述成一些符号串,把它传递给第二个机器人;而第二个机器人无法看到图像,但却可以根据第一个机器人的描述尽可能猜测图像之中的内容。最终,当第二个机器人能够猜出原图内容的时候,它们获得了游戏的胜利。在这个过程中,机器们可以演化出自己的语言。而且,当我们用人类的对话数据来做预训练以后,这些机器人就可以演化出人类能够听懂的语言,并用这种语言来对话了。实验人员指出,这种通过两个机器人合作的方式来生成对话比用一般的监督学习方式训练一个机器人要更有效率得多。

另外一个斯坦福大学计算机系的HeHe等人的研究成果表明,机器人可以通过交流的方式完成合作。还是两个机器人,它们被要求针对一个内在的知识图谱来找到共同的朋友。于是,这些Agent可以根据自己的知识图谱而发送出语言,来传递给它的合作者,而合作者则将根据收到的消息而尝试理解,并根据获得的信息进一步提问,最终当两个机器人找到了它们朋友列表中的一个共同朋友后就会完成游戏。在整个过程中,机器不仅能够找到最终的朋友,而且还能在训练期间得到一个非常完善的知识图谱以及图谱的抽象表示。


类似这样的研究还有很多。现在的AI研究者已经重新将焦点从单个主体移到了多个主体研究工作中;另外,利用深度学习方法对每一个人工智能主体进行建模可以丰富每个主体的表现,还能够更加逼真地模拟人类行为。大量的研究表明,对于同样的问题,例如多轮会话,多个主体会比单个主体更好地完成任务。


机器经济学


尽管目前的多主体研究随着深度学习的渗透已经涌现出了一些有趣的新结果,但这与现实情况还有很大的差距。设想一下,如果未来联入互联网的五百亿设备都装备上深度学习模块,那么我们应该考虑的人工智能社会就不再是简单的两三个智能的合作与交流,而应该是五百亿个(注意,这已经远远超出了现在的地球人口)人工智能主体所构建的超大规模的机器社会。于是,这一全新的社会将会给我们带来怎样的挑战?我们还能对它实施管理吗?


比较乐观的一点是,现在的机器还没有完全脱离我们人类的控制。那么,我们需要抢在机器拥有自由意识之前为他们制定好规则。


其实,科学家们早已经展开了行动,他们用“机器经济学”(Machine Economics)来概括这一新兴研究领域。我们知道随着全球性的金融危机爆发,传统主流经济学(Mainstream economics)受到了大量的诟病。人们指责,由于主流经济学中关于“理性经济人”的假设过于严格,从而使得经济学的研究严重脱离了人类行为的实际表现。


但是,随着人工智能的兴起,人们突然发现,主流经济学中的“理性经济人”假说更适合描述人工智能,而非不理性的人类。显然,人工智能程序这种“机器经济人”(Machine economicus)会比人类更可能严格按照“理性经济人”假设的情况来完成决策和行动。事实上,随着近年来计算经济学、计算博弈论等学科的进一步发展和计算能力的大幅度提升,人们已经可以在机器中利用算法的方式逼近所谓的“理性经济人”模型。于是,从这样的基本点出发,我们便能构建所谓的“机器经济学”这一新兴科学。


机器经济学将会面临一系列的问题。假设程序A代表了主人a的想法,而智能程序B代表了主人b的想法,那么当A代替主人向b购买产品的时候,A将会与b的代理B进行算法的讨价还价。由于A和B都是近似的理性经济人,这些算法就会尽其所能充分暴露自己的偏好,并力图达成一个对主人最好的结果。这样,在人类经济系统中的信息不对称的问题就有可能不复存在了。


当然,这里面的关键就在于我们应该如何为机器算法们设定环境和一系列的交易的基本规则,学名叫做机制设计(Mechanism design),以使得近似理性的算法能够在给定的机制下实现一定程度上的最优。


比如说,在囚徒困境博弈之中,我们可以通过引入“协调者”从而让两个近似理性的Agent能够达成合作,博弈矩阵如下:

博弈的支付矩阵,每一个矩阵元给出了(行玩家、列玩家)的效用。(A)囚徒困境。战友策略均衡是(背叛,背叛)。(B)协调的囚徒困境。占优策略均衡是(协调者,协调者)


再比如,Google的竞价排名就是一种典型的将机制设计理论应用到算法设计上的一个成功案例。根据经济学中的拍卖理论,第二价格拍卖(Second price auction)会比第一价格拍卖更好地揭露交易者的隐藏信息。


近年来,搜索引擎竞价已经开始支持更丰富的,基于目标的出价语言。例如,广告客户可能要求在受预算约束的情况下对一组加权的查询主题来最大化点击。搜索引擎可以提供代理主体,来代表广告客户出价以实现所述目标。代理主体的的引入以及早期从一级价格拍卖到二级价格拍卖的转换本质上就是信息揭示原理的计算应用,这是机制设计理论中的一个基本概念。简单地说,如果一个机制的规则和该机制的均衡策略被一个在功能上等同的新机制取代,那么这个新机制将是激励相容的。虽然在形式上说重新设计没有专门地考虑激励相容性,但二级价格拍卖和投标代理都可以看作为早期版本中的广告主的行为。另外,广告平台还可以设计一种策略防范(strategy proof)机制[Vickrey-Clarke-Groves机制]来决定广告空间分配:哪些广告被分配,哪些(非赞助的)内容陈列给用户。


两代赞助搜索机制。早期的设计是一级价格拍卖(FP),广告商(ADV)使用AI(AI-POS)以最低的可能价格在搜索结果列表上保持位置。引入二级价格(SP)拍卖机制,旨在取代FP和AI-POS的组合。 广告商采用了新的AI(AI-GOAL),以实现更高级的目标,例如最大化利润或最大化点击次数。二级价格拍卖被扩展到包括智能代理(SP +Proxy)中,旨在取代组合 SP和AI-GOAL。


在不远的将来,假如每一个人都有自己的一个人工智能个人助理,那么大量的经济交易活动就会由这些人工智能算法代理我们进行。于是,AI与AI之间就会讨价还价。按照“完美理性”的“经济人”假说,这些AI将能够和谐共处,并给主人带来最大的利益。


02


人工智能社会学还有多远?


《三体》中构思了一种“宇宙社会学”用来描述在时空跨度超级巨大的宇宙空间中,不同物种之间的相互作用法则。根据两条“宇宙社会学”基本公理,1、生存是文明的第一需要;2、文明爆炸和扩张,但宇宙中的物质总量保持不变,由此刘慈欣推导出了技术爆炸和猜疑链这两个基本概念,以及“黑暗森林”这个宇宙尺度的丛林法则。



与此相似,如果人工智能社会是可能的,那么是否存在着人工智能社会学这门学问呢?它将会是什么样的呢?我们能否像宇宙社会学那样提炼出来一系列的公理用以构架一个理论体系?


也许正如机器经济学所描述的那样,相对于构建人类自身的社会学原理来说,人工智能的社会学会更加简单。原因在于机器完全有可能按照一种人为预设的方式来进行行为,这样的话机器会更加接近于理性人假说。或者,反过来说,人工智能社会学的基本原则与其说是一套公理体系用以描述AI,还不如说它是一套未来AI的行为准则。与物理学研究范式最大的不同就在于人工智能,以及人工智能社会究其本质是一种规范性研究(Normaltive)。如果这个结论是正确的,那么构建人工智能社会学也许真的是可能的。


另外一个问题是,这样的理论体系有什么用呢?


也许它可以帮助我们人类更好地理解海量的人工智能所构成的巨系统,也许它可以让人工智能的群体更好地运转。然而,还有一种情况是,也许人工智能社会学压根就不是人类可以掌握的学问,而是一个彻头彻尾的AI自身的学问。它们也许会比我们人类更理解AI构成的社会。有关AI社会学,也许压根就轮不到人类来说话。



参考资料

  • 有关人工社会,大家可以参看本人写的一篇综述,点击阅读原文获取。

  • 有关集体智能,请参看公众号文章:涌现智能

  • 有关不同架构的GAN,可以参看这两篇文章:

  • Jun-Yan Zhu et al. Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks,https://arxiv.org/pdf/1703.10593.pdf

  • Taeksoo Kim et al. Learning to Discover Cross-Domain Relations with Generative Adversarial Networks, https://arxiv.org/abs/1703.05192

  • 关于多主体交流与合作的论文:

  • Igor Mordatch, Pieter Abbeel: Emergence of Grounded Compositional Language in Multi-Agent Populations, https://arxiv.org/abs/1703.04908

  • Jon Gauthier, Igor Mordatch: A Paradigm for Situated and Goal-Driven Language Learning,https://arxiv.org/abs/1610.03585

  • HeHe et al.: Learning Symmetric Collaborative Dialogue Agents with Dynamic Knowledge Graph Embeddings, https://arxiv.org/abs/1704.07130

来源:集智俱乐部


预 告:人工智能社会还有多远?智能与人工智到底能孰优孰劣?人类智慧又将何去何从?敬请关注哈佛商学院上海校友会于 2017 年 9 月 22 日在哈佛中心(上海)举办的 “人工智能社会的憧憬与忧虑” 的分享与讨论(详情见今日推送第二条)。


登录查看更多
2

相关内容

智能体,顾名思义,就是具有智能的实体,英文名是Agent。
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
专知会员服务
123+阅读 · 2020年3月26日
专知会员服务
99+阅读 · 2020年3月19日
吴恩达:AI未来将呈现四大发展趋势
AI100
6+阅读 · 2019年8月30日
人工智能的现状与未来(附PPT)
人工智能学家
74+阅读 · 2019年3月27日
清华朱军教授:机器学习未来的几大挑战与目前进展
DeepTech深科技
4+阅读 · 2018年10月29日
AI综述专栏|神经科学启发的人工智能
人工智能前沿讲习班
5+阅读 · 2018年7月11日
国内高校人工智能教育现状如何?
大数据技术
9+阅读 · 2018年4月24日
2018年中国人工智能行业研究报告
艾瑞咨询
3+阅读 · 2018年4月2日
周志华:严肃的研究者就不该去触碰强人工智能
人工智能学家
4+阅读 · 2018年1月28日
CCCF:周志华 | 关于强人工智能
AI科技评论
4+阅读 · 2018年1月17日
人工智能,机器学习和深度学习之间的差异是什么?
大数据技术
6+阅读 · 2017年11月22日
Arxiv
22+阅读 · 2019年11月24日
Arxiv
4+阅读 · 2018年10月5日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
可解释强化学习,Explainable Reinforcement Learning: A Survey
专知会员服务
129+阅读 · 2020年5月14日
《强化学习》简介小册,24页pdf
专知会员服务
272+阅读 · 2020年4月19日
专知会员服务
123+阅读 · 2020年3月26日
专知会员服务
99+阅读 · 2020年3月19日
相关资讯
吴恩达:AI未来将呈现四大发展趋势
AI100
6+阅读 · 2019年8月30日
人工智能的现状与未来(附PPT)
人工智能学家
74+阅读 · 2019年3月27日
清华朱军教授:机器学习未来的几大挑战与目前进展
DeepTech深科技
4+阅读 · 2018年10月29日
AI综述专栏|神经科学启发的人工智能
人工智能前沿讲习班
5+阅读 · 2018年7月11日
国内高校人工智能教育现状如何?
大数据技术
9+阅读 · 2018年4月24日
2018年中国人工智能行业研究报告
艾瑞咨询
3+阅读 · 2018年4月2日
周志华:严肃的研究者就不该去触碰强人工智能
人工智能学家
4+阅读 · 2018年1月28日
CCCF:周志华 | 关于强人工智能
AI科技评论
4+阅读 · 2018年1月17日
人工智能,机器学习和深度学习之间的差异是什么?
大数据技术
6+阅读 · 2017年11月22日
Top
微信扫码咨询专知VIP会员