大家好,我是为人造的智能操碎了心的智能禅师。
全文大约1500字。读完可能需要下面这首歌的时间
👇
吴恩达曾经告诫中小企业别跟大公司拼通用 AI 技术,拼垂直。
为什么?因为数据、Platform、框架、基础设施建设等资源,都牢牢掌握在大公司手里,从底层的基建到上层的 API,全部封装集成为一整套的解决方案。
人工智能天生需要不断的有数据吞吐、不断的有底部框架的更新。既要多,又要快,还得实时。同时需要不断的根据新的状况,不断调整数据、算法和模型。
数据是需要历史积累的,需要大量的用户样本,需要大量的用户互动。如果是小公司从头开始做,显然非常吃力不讨好,尤其是在获客成本如此高昂的今天。
其实不光人工智能行业,整个社会,都是在从原来多个部落野蛮生长,往集团军规模化流程化靠拢。
最早的操作系统不过才几 M,加上图形界面也不超过100 M,直接装 U 盘里随时带走。甚至一个 hacker 拿着源码改吧改吧也能 fork 出一个操作系统出来。
而现在,手机的操作系统都需要几个 G,并且和硬件高度集成,往死里压榨硬件性能。已经没有人会考虑再开发一套操作系统了,都是在苹果和谷歌的手机生态里,不断地往细分领域深挖。
人工智能只不过在这方面,表现的更赤裸、更着急而已。
所以像谷歌、阿里这样的平台更适合、也更愿意在自身拥有的资源上,去构建生态系统的框架;然后把开发者、小团队吸引过来,去填充整个生态系统的内容。
阿里在云栖大会上介绍了由 Dataworks、MaxCompute,以及 PAI 组成的新一代计算引擎,完全就是一个生态圈。它满足了以下5点需求:
海量数据规模下高性价比的离线及实时计算力
实时+离线任务一体化研发能力
实时+离线异构数据湖交互式查询能力
超大规模机器学习、深度学习异构计算力
一站式端到端的云上大数据智能研发能力
这三个产品能够互相提供助力,形成一个可以随意组合、随意打散的动态聚合体。针对不同的应用场景,开发者只需要合理的选择需要用的资源和工具即可。
举个不太恰当的例子,开发者不用为了想喝到肥宅快乐水,亲自去制造配料和机器,这些东西阿里已经准备好了,开发者只需要考虑使用不同种类和比例配料,利用合适的工具制作更细分的:肥宅快乐水、肥宅幻乐水、肥宅神仙水等…
为了更多的了解阿里新一代计算引擎,以及在人工智能方面的动向,禅师采访了副总裁周靖人和阿里巴巴研究员、PAI 平台负责人林伟。以下是采访内容。
特别感谢人工智能头条读者群的小伙伴向禅师提供问题
关于 Dataworks、Maxcompute 和 PAI 之间的关系
周靖人称,这几个平台实际上是相辅相成。阿里的目标是:提供丰富的引擎。通过各种引擎的组合,解决所有业界的问题。
如今已经不可能只用一个平台解决全部问题。有的业务需要处理大量的数据;有的业务数据量需求不多,但对实时数据有很强的要求;有的业务需要涉及到更多的智能应用,例如语音、自然语言处理等方面的深层次应用。
因此新一代计算引擎提供了各种功能,能够快速根据用户的需求组合各种模块,完成各种业务的特殊需求。
我们通过 Dataworks 能够把 MaxCompute 和 PAI 串起来,利用鲜明特点的计算引擎组装成各式各样的业务,去解决不同业务的需求。
阿里只负责构建开发者拿来即用的平台
因为 PPT 中有 DOTA 的视频,刚好人工智能头条的粉丝也有问到了之前阿里开源的 GymStarcraft 。
林伟表示:我们其实只负责搭建平台,对内服务阿里巴巴集团,对外服务阿里云的客户及合作伙伴。
GymStarCraft 其实只一个尝试,为开发者提供一个应用的范例。提示开发者可以使用阿里的平台,做出类似的应用而已。
这套框架对内的应用场景有很多。拿购物来说,消费者在购物的时候不是一次购物,而是一系列购物。在购物过程中,会不停和消费者进行互动。
这个时候就可以利用这套框架,通过机器学习的方法捕获消费者的真实想法。游戏只是为了鼓励技术,看看技术是如何突破大家想象力,让大家意识到,这样的方式、这样的机制其实是可以解决一些很有趣的问题。
阿里同时也在研究如何做好人工智能项目落地
有开发者表示,目前人工智能项目的落地还处于一个比较艰难的阶段,主要的问题是场景和技术资料比较缺乏。
林伟,也希望能够通过阿里现有的资源,来帮助开发者创造更多的应用场景,让项目更好的落地。
目前能够较好落地的场景可能还是跟图像、语音、自然语言的处理相关,因为有一些模型的创新已经出来了,大家可以基于基础模型做更深的细分场景。
而阿里也和谷歌一样,在努力降低人工智能的开发门槛。只要有数据,有一些标的、中间的模型,阿里会尽量尝试帮助开发者做一些更好的模型。
同时建模的技术也在变化。阿里拥有的海量数据、大量的真实场景,特别是跟人相关的兴趣等数据。通过模型的创新,能够推动人工智能,进一步挖掘背后的场景。
Maxgraph 具体的应用场景
Maxgraph 能够把“人、货、场”的知识图谱做的很好。这个图不是一个静态图,每天变化有很多。
阿里主要是在探索如何构建一个存储系统,或者一个开发者可见的查询的编译系统,可以和后面的机器学习、各种数据和普通的计算做高效的结合。
Maxgraph 的初衷,是希望能够把阿里内部非常大的图做好,能够支持各种各样的计算引擎,并且能够高效使用这些数据。
深度学习网络参数越多,数据量越大,效果就越好?
林伟表示:No!并不是数据量越大效果越好。
模型越大参数越多,反而可能会造成更多的问题。做机器学习的都知道数据最关键。如果数据不准,是无法训练出一个靠谱的模型。
有可能你在测试集看到效果很好,因为参数表达能力空间更大,但是在真实场景下反而不好,这就是为什么我们在训练的时候要控制一些参数规模。
因为机器学习是捕获背后的逻辑关系,但是它的逻辑关系从真实和自然来说不会有那么多。如果一个很大的参数,理论上其实是在违背它的自然规律。
在做平台这件事情上,阿里是专业的。虽然可能不同用户有不同的看法,但毫无疑问的,未来平台、数据、API 的整合度会越来越高,在平台上进行开发的门槛会越来越低,开发成本也会相应降低。
期待中国的人工智能,不再是吴恩达口中的高速路上的巨婴,而是高速路上的布加迪!