大数据文摘出品
编译:魏子敏、蒋宝尚、王嘉仪
新年伊始,海外媒体VentureBeat电话访谈了包括吴恩达、Yann Lecun在内的四位人工智能领域领军者,询问了他们对于过去一年人工智能领域发展的看法,以及他们认为新一年人工智能和机器学习可能产生的突破。
不约而同,几位大咖都同意,过去一年公众对于人工智能的理解有了很大进步,包括恐慌的减少和对其局限的认知。对于未来可能产生的突破,吴恩达和Yann Lecun都强调了“少样本学习”,让算法可以通过更少量的数据得出结果,其他担忧还涉及AI背景下的资产分配等问题。
一起来看。
吴恩达:“少样本学习”和“计算机视觉场景适应研究”有望推进全领域发展
吴恩达是斯坦福大学的兼职计算机科学教授,可能是当今AI圈最有名的人物之一。
Google Brain的联合创始人、Landing AI的创始人、Coursera创始人及最受欢迎机器学习课程的讲师,创立了deeplearning.ai、Drive.ai的董事会成员。
本月早些时候,Ng在发布人工智能转型手册时与VentureBeat进行了交谈,这是一篇关于公司如何通过人工智能重塑自身的简短读物。
他希望在2019年看到的一个主要进展是AI被用于科技或软件公司以外的领域。他说,人工智能领域待开发范围远超软件行业,他引用了麦肯锡报告中的数据,人工智能到2030年将产生13万亿美元的GDP。
“我认为明年(2019年)很多故事都将出现在软件行业以外的人工智能应用中。在业内,谷歌、百度以及Facebook和微软等公司方面做得不错,但即使像Square和Airbnb,Pinterest这样的公司也开始投身人工智能。我认为,下一次巨大的价值创造浪潮的推动者将会是制造公司或农业设备公司或医疗保健公司,通过人工智能解决方案来辅助这些领域的业务增长。”
关于过去一年大众对AI理解的精进,吴恩达表示非常惊喜,人们的讨论开始离开杀手机器人场景或对人工智能的恐惧了。
吴恩达说,他希望给出一些其他人没有给过的回答。
“我希望引入某些我认为对实际应用非常重要的领域。我认为人工智能的实际应用存在障碍,而在某些领域,这些问题有很大进步潜力。”
在未来一年,吴恩达认为AI / ML研究中有两个特定领域的进步有助于推动整个领域的发展。
一个是用较少的数据得出准确的结论的人工智能的发展,有人称其为“少样本学习(few shot learning)”。
“我认为第一波深度学习进展主要来自大公司,他们有大量的数据训练非常大的神经网络,因此,如果您想构建语音识别系统,需要用100,000小时的数据进行训练。想培训机器翻译系统?用平行语料库的大量句子训练它,这会产生很多突破性的结果。但是现在,我看到越来越多尝试用小量数据,比如1000张图像,也产生了很好的结果。”
另一个是计算机视觉领域关于适应性的研究进展,被称为“generalized visibility”。
当我们使用斯坦福大学高端X光机的原始图像训练模型时,计算机视觉系统会工作得很好。(在高精度图片的前提下,)该领域的许多先进公司和研究人员已经创建了比人类放射科医生更优秀的系统,但这些系统还不够敏锐。
“比如,一旦将这些训练好的模型应用到不同的医院、低端X光机拍摄的图片上,图片可能比较模糊、或者角度有点偏离,(这时候)人类放射科医师在适应新环境上比这些学习算法要好得多。因此我认为,有很多有趣的研究尝试提高新领域学习算法的普遍性。”
Yann LeCun:开源能帮助AI进步,自我监督学习有望取得大进展
Yann LeCun作为纽约大学的教授、Facebook 的首席AI 科学家、Facebook AI Research (以下简称FAIR)的创董,对人工智能的理解是非常深刻。
他相信开源能帮助AI进步,认为FAIR的的开源政策在一定程度推动了其他大公司对人工智能的重视。在 NeurIPS 会议以及FAIR五周年的庆典上,Yann LeCun多次就机器学习等话题发表看法。
注:FAIR除了PyTorch 1.0 和Caffe2 之外,还有非常多新颖的人工智能系统,例如文本转换工具、playGo等。
Yann LeCun表示:交流促进进步,只有研究者的思想进行碰撞,人工智能才能更加快速的发展,今天的发展离不开人工智能领域开源、开放的趋势。
在人工智能伦理道德方面,LeCun很高兴看到在此领域取得的进步,这些进步包括对道德意义的思考以及对有偏决策带来危险的思考。
LeCun认为伦理道德和偏见问题,并不是当下最需要解决的。但是,人们已经为解决此类问题做好了行动准备。
当下最紧急的是解决那些事关生死的问题,这些问题必将发生,人们必须在它们到来之前做好预防。
和吴恩达一样,LeCun也希望人工智能系统更加灵活、更加“健壮”。他希望人工智能系统未来不需要那么多的限制,即不需要原始的输入数据,也不需要对输出条件做苛刻的要求。
当前,研究人员已经可以通过深度学习很好地管理感知,但一整套的AI系统架构尚不存在。自我监督的学习或基于模型的强化学习是通过“观察”来教学机器的关键。不同的人或许给它起不同的名字,但核心思想都是,婴儿和其他动物通过观察和了解大量背景信息来了解世界的运作机制。机器如何做到这一点尚未得知,这也是目前面对的一个巨大的挑战。
当前的奖项设立大多是鼓励人工智能和机器方面如何取得实际进展。如果对一些常识和虚拟助手方面的工作进行鼓励,相信会有更广泛的话题和讨论。
LeCun表示在自我监督学习方面取得的重大进展非常重要,因为人工智能需要用更少的数据返回更准确的结果。
“我们希望找到一些方法减少特定任务所需的数据量,如机器翻译或图像识别等等,其实已经在这方面取得了进展,我们已经通过弱监督或自我监督学习进行翻译和图像识别,而且这些工作已经对Facebook提供的服务产生了影响。因此,影响不仅是长期的,在短期也是非常明显。”
LeCun希望看到在建立事件之间的因果关系方面取得进展。这不仅是一种通过观察来学习的能力,还是具有实际理解的能力,例如,如果人们使用雨伞,就说明很可能是在下雨。
这是非常重要,因为如果你想让一台机器通过观察学习世界,那么,它必须能够知道它可以通过影响什么来改变世界的状态,而且有些东西是不能做的。LeCun举例道:桌子上有一个水瓶,想移动水瓶,最好的办法是直接动水瓶。而不是推桌子,因为桌子很重。
Rumman Chowdhury:重塑AI背景下的财富分配,家用人工智能爆发
Rumman Chowdhury博士是埃森哲应用智能部门的常务董事,也是人工智能计划的全球负责人,于2017年入选BBC的100名女性名单。
在一次波士顿的Affectiva会议上,她就2019人工智能预测的话题与世界各地的观众进行探讨。她非常高兴公众对人工智能有了更全面的了解和认识,不少人一度认为AI的发展将威胁人类,毕竟像“终结者”这样的智能机器接管全球的画面,或多或少都会在人们的脑海中出现过。她也对AI领域的技术公司和从业者更快的注意到工作涉及的伦理问题感到惊喜。
公众对人工智能的认识是否充分仍然不是她最关注的地方。在未来,她希望看到更多的人利用教育资源来理解人工智能系统,并能够对人工智能决策有分辨能力。
Chowdhury最关心的是人工智能的发展将增加隐私和安全的问题,以及其在塑造我们和后代方面可能产生的作用。
“至于道德和人工智能的关系,先不考虑著名的电车难题,我希望看到人们现在就重视AI将带来的问题以及尚未有明确答案的问题。”她不断抛出这样的问题,例如:人工智能和全球科技巨头所掌握的权力引发了很多关于如何规范行业和技术的问题。
我们应该如何重塑这种从前端技术获得的财富分配,以至于不再让新的资源鸿沟横亘于人群加大贫富差距?我们能接受自己的孩子多大程度成为AI原始住民,同时还可以避免被操纵或同质化?我们能否用AI扩展自动化教育却能保留住激发创造力和独立思想?
她还希望看到人工智能在地缘政治问题上的能够继续发挥作用。在未来一年,Chowdhury预计将在全球范围内看到更多的政府审查和技术监管。
“在2019年,我们将不得不开始思考:当技术是一种多用途工具时,你该如何规范技术?你如何制定有利规则避免扼杀公司创造性,以及让那些小公司也能生存而不被(可以承担合规成本)大型公司吃掉。我们在什么级别进行监管,国际、国民、本地?在AI或物联领域里什么行动才能够被允许?是那些所谓的安全性(却保留惩罚性的监控状态甚至还强化了种族歧视)吗?”
“这不仅仅是一项技术,而是一种经济和社会的塑造。我们在这项技术中反思,扩展和执行我们的价值观,我们的行业需要对我们构建的内容以及我们如何构建不那么天真。”
为了实现这一目标,她认为人们需要超越人工智能行业中常见的想法,即如果我们不构建它,中国就会好像只有创造就是力量所在。
“我希望监管机构,技术专家和研究人员意识到,我们的AI竞赛不仅仅是计算能力和技术敏锐性,就像冷战不只是核能力一样,”她说。 “我们有责任以更公正,更公平的方式重建世界,同时我们有难得的机会。这个时刻是短暂的,我们不要浪费它。”
在消费者层面,她认为2019年人们将会在家中更多地使用人工智能。许多人已经习惯于使用Google Home和Amazon Echo等智能产品,以及其他一系列智能设备。
“我想我们都在等待一个机器人管家”她说。
Hilary Mason:产品经理将在AI方面做出更多贡献
2017年Cloudera收购Fast Forward Labs之后,Hilary Mason成为了该公司的机器学习负责人。在Mason的带领,Fast Forward继续运作,为客户提供未来六个月到两年的应用机器学习报告。
Mason对于人工智能多任务学习的高速发展表示惊讶,但她考虑到更多——有必要为AI建立道德框架。Fast Forward Labs的报告中早就开始为客户提供有关AI系统伦理影响的建议。“这是自从我们创建Fast Forward以来一直关注的事情,所以五年前我们开始撰写关于道德规范的报告。”
直到今年(2018)人们真正开始接受并关注这个领域。“明年我们会开始看到,那些不关注这个问题的公司会出现问题”,Mason说。“我希望道德和偏见问题成为数据科学和人工智能的实践发展中潜意识考虑的问题。”
随着更多AI系统成为未来一年业务运营的一部分,Mason预计产品经理和产品负责人将开始在AI方面做出更多贡献,因为这正是他们的优势。
她说:“人们能够分辨谁是了解整个产品并看到其对于企业未来价值的人,也能看出谁最有能力做出应该投资何处的决定。我们也一样期望这些人至少能用像表单一样的东西来建个模,然后他们也能胜任识别出他们产品中使用AI的机会。”
人工智能的民主化是几家公司所强调的。涉及到数据科学团队以外的公司,包括Kubeflow Pipelines和AI Hub等Google Cloud AI产品,以及CI&T咨询公司的建议,以确保AI系统实际上是在公司内使用。
梅森还认为,越来越多的企业需要结构化的管理多个人工智能系统。
就像DevOps从业者,Mason说,管理单个系统可以使用手动部署的自定义脚本完成,而cron作业可以管理几十个。但是,当您管理数十个或数百个系统时,考虑到安全性和治理风险,一个企业就需要更专业、强大的工具。
她说,企业正在朝着更系统追求机器学习和人工智能的方向转变。
由于Cloudera最近推出了自己的基于container-based的机器学习平台,因此强调部署AI的CB对Mason来说很有意义。她相信这种趋势将在未来几年继续,因此公司可以选择在预置的AI或已经运行的AI中部署。
最后,Mason认为,人工智能的业务将继续发展,这将是整个行业共同实践,而不仅仅是个别公司。
“我认为我们将看到人工智能专业实践的不断发展,现在,如果你是一家公司的数据科学家或ML工程师,当你跳槽到另一家公司,你的工作将完全不同:不同的工具,不同的期望,不同的报告结构。我期待看到未来的一致性。”
相关报道:
https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/