【人工智能】技术的“能”与“不能”,人工智能也需要哲学家加入探讨

2020 年 4 月 17 日 产业智能官


大数据文摘出品
作者: 刘俊寰

10月31日,由北京智源人工智能研究院主办的2019北京智源大会在国家会议中心开幕,本次大会吸引到了国内外人工智能领域的顶级专家学者参与,他们围绕人工智能基础研究现状及面临的机遇和挑战、人工智能技术未来发展的核心方向等话题,展开了深入研讨。

大会第一天上午,在智源大会上,AI Time举行了第八期“人工智能的‘能’与‘不能’”的主题辩论活动,中国科学院院士张钹,加州大学洛杉矶分校教授朱松纯,北京大学教授黄铁军,中国人民大学教授文继荣一起论道了“人工智能的能与不能”的相关问题。


数据跟知识结合起来,才能做出更好的系统


现场展示了几部电影片段,包括《超能陆战队》的智能诊断、《复仇者联盟》的手势交互、《流浪地球》的同声传译、《速度与激情》的无人驾驶、《Her》的情感伴侣,尽管电影中的人工智能技术已经相当成熟,但是现实中其实离我们还很遥远。


就上述五项技术的实现难度而言,张钹认为,手势交互相对容易一点,智能诊断其次,然后是同声传译、自动驾驶和情感伴侣,情感伴侣肯定是最难的。

首先大体上说现在人工智能能解释什么问题,做人工智能只有两个资源,一是知识和经验,一个是数据。 人工智能最早的模型是以知识和经验为基础的推理模型,这个做得不是很成功,后来发现机器在运用知识方面与人类的差距也很大。

另外一条路就是利用数据,利用数据能得到意想之外的成就,计算机使用数据的能力远远超过人类,比如现在基于大数据的深度学习。 现在大多数的应用都是使用的这些技术,在图像识别、语音识别、自然语言处理上取得不错的成果。

但同时,也必须看到这个成果的局限性,它应用的场合必须符合以下四个条件,因为这个技术有四大缺点: 不可靠、不可信、不安全、难以推广,这就是单纯依靠数据驱动造成的问题。

  • 信息基本上是完全确定的
  • 环境基本上是结构化的,如果有变化这个变化是可预测的
  • 限定领域
  • 关键重要的地方不能用


现在单靠数据,在一些应用场景下是可以解决一些问题,但是更多场景下是不能解决问题的。 为了克服这些缺点,需要加入知识。

比如同声传译,现在一般情况下机器翻译的问题不大,但是这种系统在某些场景下不可避免地会发生重大错误,因为它缺乏知识和常识。 “说你行的人行”这句话,最好的翻译系统也会翻得一塌糊涂。 自动驾驶也是这样,在关键地方信不过,经常会出一些大错。

下一步最重要的是把数据跟知识结合起来,这样才能做出好的系统。

朱松纯对张钹的观点表示认可,手势交互是可能实现的。 大白决定于感知器,同声翻译和自动驾驶都是非常危险的东西,特别是用在外交上,是不可靠的。 情侣是很有趣的现象,将来人工智能在这个方面可以超过人。

从整个能和不能来看,如果把任务定义清楚,也有数据,基本上都可能做。 像百度、谷歌的研究人员,他们做出成果是基于对特定任务的定义,如果定义新的任务,所有的人工智能都不能了。 这是核心的分水岭,就是你能够做多大的任务、多少任务、能不能自己定义任务。

有一个词叫任务陷阱。 现在所有刷榜的数据库,这就是陷阱。 2008年在一个会议上,参会人员把计算机视觉说成图像的分类问题,大家就被引到了任务陷阱里去了,这是非常危险的。

文继荣基本同意两位老师的观点,他指出,手势交互其实更接近于通用的人工智能助手,大白的实现要更容易一点,因为大白只是医疗方面的信息助手。 接着应该是交互系统和同声传译。 自动驾驶对容错性的要求太高了,除了技术难度以外,还要从用户可接受角度考虑。 情感伴侣应该是最难的,这里面包含了更复杂的东西,甚至涉及到了意识问题。

黄铁军则认为,实现难度无法排序,但是这五个功能都能实现,甚至包括情感伴侣。 但是这个机器与今天的计算机不同,它是一个全新的系统,就像类脑智能,构造出像人一样的的神经系统,只不过是电子版本的机器,它能在复杂环境里训练。


观众票选最难实现的统计数据


观众票选最易实现的统计数据


针对观众的票选结果,朱松纯打趣道,估计是科大讯飞的广告做得好,让大家都以为同声传译已经成为现实了。 但是,如果看翻译结果的话,还是有很大差距的。 虽然很支持科大讯飞的工作,但科学是科学,他们做不了,这是现实。

实现人工智能的基本要素

针对计算机能否会有意识,张钹认为,目前不可能进行科学的讨论,现在对人类的意识了解得还太少。 不管是持哪方主张的人,都拿不出充分的科学证据来支持观点。 这个问题不应该在科学领域里争论,更应该在哲学领域里讨论,哲学的讨论就是针对科学解释不了的、解决不了的问题。

智能这条路是唯一的途径,还是存在其他办法? 现在的智能,包括意识在内,是通过几亿年的进化产生的,除了进化的路以外,会不会还有别的路? 如果有别的路,是否就可以通过技术的不断提高来解决这个问题? 这些都可以放到哲学领域内讨论。

黄铁军和张钹的观点几乎完全不同,他指出,产生自我意识的必要条件,第一要有类似甚至超越人类神经系统的物理载体,最简单的是把人的神经系统做一个拷贝,做一个电子的身体; 第二要有一个复杂的环境,而地球就是一个很复杂的环境。 有了这两个条件,就可以进行交互、尝试,然后不断地去训练。 在这个过程中会发生很多种可能性,包括自我意识的产生。

但是这个问题就算是在哲学领域内讨论也是空谈。 我们能做的是在技术领域去讨论、去实现。 比如宋朝发明指南针的时候,没人说有种东西能够沿着地磁方向指南,那时候科学还不存在,人们也不知道电磁学,但是这并没有影响指南针的发明。

做出有自我意识的系统,前提是先去做这个系统,而不是解释人智能背后的原理问题。 这不是科学问题或者哲学问题,而是技术问题。


张钹认为,哲学家肯定会去讨论这个问题,这也是无法阻止的,而且讨论是有益处的,哲学讨论出来的思想是很有启发性的。

黄铁军指出,对于哲学家参与讨论是赞同的,但是讨论的是如果技术走太快,捅出篓子来如何解决的问题,哲学家提出的路线就不太现实了。

如果抛开意识形态,对于一个具体的任务,能够自动分解之后用机器学习解决,以实现技术层面的人工智能,朱松纯不否认这种路线,这与人脑的分区是相同的,至于怎么综合起来达成共识,还需要一个自洽的解释,这有另外的方法来做。

黄铁军则对此持否定的回答,他说,只要读一下图灵的论文就知道答案,1936年的文章说的很清楚,正是因为不可计算理论的奠基才有了计算机。 结论很清楚,即不可能设计一台机器把所有可计算的过程来自动完成,也不存在一个机器能分配任务。

文继荣首先针对人工智能程序和普通程序作出区分,即程序是否具有人的特质,包括以下几个方面:

  • 灵活性,处理各种不确定性
  • 自适应性,能够适应不同的变化,能够自学习
  • 可解释性,可解释性背后的含义是人的理性
  • 创造性
  • 自主性


然后,他分享了自己对人工智能的一个分级:
Level 0: 能够完成固定逻辑任务,就是预定义逻辑任务,也普通程序。
Level 1: 能完成特定领域任务,不管用大数据方法或其他方法,它可以处理不确定的输入、可泛化,像人脸识别。
Level 2: 可以对结果行为可解释,能够从相关到因果。
Level 3: 通用人工智能的东西,这就需要具有多领域的自适应性,并且尝试推理等等,能够在多个领域来自由游走。
Level 4: 系统具有创造性,AI产生的一些新的、有意义的东西,比如真的能够写出一部小说了,但是这个东西必须是要有意义的。
Level 5: 具有自我意识。


朱松纯认为,这个分级在各个垂直应用行业是非常有意义的,这能使目标和任务变得非常清楚。 但是如果是通用的人工智能,整体的分级目前还很难,因为到底包含有多少个模块和功能,在整体的框架和维度没有说清楚之前,可能会引起很大的争论。

更简单的情况,可以把它说成智商。 比如,智商有多少维度,为什么我们测人的智商是从0到150,这就是个分级,人也可以分级。 为什么人类比动物聪明? 为什么有的人比较聪明? 天才是为什么? 天才到底是因为什么变成了天才? 数学天才还是下棋天才? 这就是多种维度,这些维度在大的空间里面是有限的还是无限的? 任务的边界在哪儿? 智能的边界在哪儿? 智能极限在哪?

原来图灵有一个停机问题,其实学习也存在停机问题,学习的极限就是停机问题。 是什么东西决定了智商的极限、学习的极限,这可以作为一个科学的问题来研究。

张钹对朱松纯的观点表示赞同,对于具体问题要进行分级,这对于研究是有意义的,比如自动驾驶现在分成五级,这样就知道这个阶段究竟可以做到什么程度。 但对于整个的智能进行分级很难,这涉及到了很多方面,而且分级的可能性也比较小,特别是对于通用人工智能,要有明确的定义。

机器和人要形成互补

正如朱松纯所说,现在数据的开放共享,甚至是竞赛,都有可能是陷阱,而这对未来的AI发展可能造成障碍。

黄铁军指出,这不是阻碍,是一个重要的阶段。 人从单细胞生物进化到现在,也是大数据训练出来的结果,广义上讲,大数据是统一的。 现在能收集这么多数据变成标好的图像,这只不过是一种比较僵化的大数据,从大的思路上讲是必要的,如果没有足够的数据和环境刺激,很难做出更强的智能。

张钹认为可以利用大数据和计算机处理数据的能力,发展出比人类更强的机器。 机器不一定要和人类完全一样,它在某些方面比人强,在某些方面比人弱,这才是被需要的,人和机器形成互补,以建立和谐的人和机器共同体。

隐私与伦理需要交给公众去选择和决定

第二个“不能”的“能”和第一个“能”意思也还不一样。 现在随着AI技术发展,能通过视频自动观察学生上课的专注度,也能在视频中就抓取到个人信息。 而在美国加州,5月份通过了网络隐私法保护,禁止在任何公共场所使用拍照的人脸,甚至包括警察抓小偷。

关于隐私是否应该开放以做出更多技术发展,黄铁军认为,人工智能技术嵌入社会生活,过程中一定需要适应过程,这个适应过程是双向的,既要技术适应人类社会,也需要人类去适应技术。

张钹指出,这属于人工智能管理问题,涉及到三个层面: 误用了人工智能的技术、滥用人工智能技术、利用人工智能技术进行国家与国家或集团与集团的对抗。 这三个层面是不一样的,应该采取不一样的治理方法。

朱松纯认为,隐私被暴露意味着对自由空间的侵犯,这个问题应该由社会来回答和决定。 就像伦理道德一样,这是一个相对的概念,是在人和人交流过程中达成的共识,这也是随着时间在改变的。 像人脸识别系统,在机场、火车站运用非常方便,但这也需要公众自己选择,公众如果通过法律不让你这么做,那就不能做。

文继荣指出,在中国可以看见人脸监控还是比较普遍的,跟这两个国家的特点有关系。 西方更强调个人自由,中国更强调集体主义。 也不能简单说,加州不让做,中国就一定要效仿。 但是这其中边界要交给人民去决定。 另外,人工智能要可控,现在深度学习黑箱很麻烦,如果其中的可解释性、可控性解决不了,这才是真正危险的东西。

最近各个国家、地区都相继发表了AI宣言,北京也发布了《人工智能北京共识》,黄铁军对此展开了详细讨论,他说,发展人工智能的宗旨是让它造福、服务于人类。 在现阶段或者在未来的一段时间之内,我们确实要考虑到人的利益、幸福感,但是从长远来看,还是要跳出以人为中心的思维惯性,来考虑智能在地球、宇宙的意义下的未来。 那个时候就不只是智能怎么服务于人,而是人和智能如何共处、共融,如何深入发展的问题。

人工智能的发展同样离不开伦理,在伦理以及AI发展的边界的问题上,张钹认为,这是一个很复杂的东西,一两句话说不清楚,人工智能的治理的几个层面,其中就涉及到伦理,具体到技术问题,还得根据具体场景界定。


朱松纯也认为这个问题很难,现在大概花不到1000美金就可以制造杀人武器,无人机和摄像头有人脸识别就可以开枪了,这都是非常危险的,肯定也无法阻止。 既然这个工具产生了,他拿这个工具砸银行或者干什么是人的事情,在这个方面科学家阻止不了他,只能通过社会去做。

将来最好的办法是计算机自身能够形成一定的伦理,它能够判断这么去做会造成的社会后果是什么,这种能力其实是一般人基本的东西,但如果机器不具备这种能力,不去考虑后果的话,每个机器人都是潜在的威胁。


先进制造业+工业互联网




产业智能官  AI-CPS


加入知识星球“产业智能研究院”:先进制造业OT(自动化+机器人+工艺+精益)和工业互联网IT(云计算+大数据+物联网+区块链+人工智能)产业智能化技术深度融合,在场景中构建状态感知-实时分析-自主决策-精准执行-学习提升的产业智能化平台;实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链。


产业智能化平台作为第四次工业革命的核心驱动力,将进一步释放历次科技革命和产业变革积蓄的巨大能量,并创造新的强大引擎; 重构设计、生产、物流、服务等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生 新技术、新产品、新产业、新业态和新模式; 引发经济结构重大变革,深刻改变人类生产生活方式和思维模式,实现社会生产力的整体跃升。

产业智能化技术分支用来的今天,制造业者必须了解如何将“智能技术”全面渗入整个公司、产品、业务等商业场景中, 利用工业互联网形成数字化、网络化和智能化力量,实现行业的重新布局、企业的重新构建和焕然新生。

版权声明产业智能官(ID:AI-CPS推荐的文章,除非确实无法确认,我们都会注明作者和来源,涉权烦请联系协商解决,联系、投稿邮箱:erp_vip@hotmail.com。




登录查看更多
0

相关内容

专知会员服务
123+阅读 · 2020年3月26日
《人工智能2020:落地挑战与应对 》56页pdf
专知会员服务
195+阅读 · 2020年3月8日
人工智能学习笔记,247页pdf
专知会员服务
181+阅读 · 2019年12月14日
IBM《人工智能白皮书》(2019版),12页PDF,IBM编
专知会员服务
20+阅读 · 2019年11月8日
一个阿里技术大牛对人工智能方向的看法
网易智能菌
8+阅读 · 2019年4月24日
人工智能在教育领域的应用探析
MOOC
12+阅读 · 2019年3月16日
CCAI2018演讲实录 | 刘兵:终身学习、连续学习与元学习
人工智能前沿讲习班
13+阅读 · 2018年10月8日
张钹院士:我们正在通往真正AI的路上
德先生
3+阅读 · 2018年7月1日
张钹院士:走向真正的人工智能(附报告全文)
走向智能论坛
13+阅读 · 2018年7月1日
2018年4个需要关注的人工智能趋势
大数据技术
7+阅读 · 2018年1月30日
人工智能的阴暗面
计算机与网络安全
6+阅读 · 2018年1月8日
【人工智能】史上最通俗易懂的人工智能概念解释
产业智能官
3+阅读 · 2017年9月14日
Interpretable CNNs for Object Classification
Arxiv
20+阅读 · 2020年3月12日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
21+阅读 · 2019年8月21日
Arxiv
7+阅读 · 2019年5月31日
Arxiv
13+阅读 · 2019年1月26日
Arxiv
22+阅读 · 2018年2月14日
VIP会员
相关资讯
一个阿里技术大牛对人工智能方向的看法
网易智能菌
8+阅读 · 2019年4月24日
人工智能在教育领域的应用探析
MOOC
12+阅读 · 2019年3月16日
CCAI2018演讲实录 | 刘兵:终身学习、连续学习与元学习
人工智能前沿讲习班
13+阅读 · 2018年10月8日
张钹院士:我们正在通往真正AI的路上
德先生
3+阅读 · 2018年7月1日
张钹院士:走向真正的人工智能(附报告全文)
走向智能论坛
13+阅读 · 2018年7月1日
2018年4个需要关注的人工智能趋势
大数据技术
7+阅读 · 2018年1月30日
人工智能的阴暗面
计算机与网络安全
6+阅读 · 2018年1月8日
【人工智能】史上最通俗易懂的人工智能概念解释
产业智能官
3+阅读 · 2017年9月14日
Top
微信扫码咨询专知VIP会员