来源:学术头条
本文共3709字,建议阅读7分钟。
本文为你分享大咖们对人工智能安全伦理和社会问题的深入探讨。
来源:学术头条
本文共3709字,建议阅读7分钟。
本文为你分享大咖们对人工智能安全伦理和社会问题的深入探讨。
AI Time “论道AI安全与伦理”,邀请清华大学人工智能研究院院长张钹、中国人民大学高瓴人工智能学院院长文继荣和搜狐网产品技术总监杨田等人对人工智能安全伦理和社会问题进行深入探讨。
背景介绍
AI Time是一群关注人工智能发展,并有思想情怀的青年人创办的圈子。AI Time旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,加强思想碰撞,打造成为北京乃至全国人工智能知识分享的策源地和聚集地。
活动开始
本次活动由电影《Her》开场,《Her》是斯派克·琼斯编剧并执导的一部科幻爱情片,由华金·菲尼克斯、斯嘉丽·约翰逊(配音)、艾米·亚当斯主演,讲述了作家西奥多在结束了一段令他心碎的爱情长跑之后,爱上了电脑操作系统里的女声“萨曼莎”, “萨曼莎”不仅有着一把略微沙哑的性感嗓音,并且风趣幽默、善解人意,让孤独的男主泥足深陷。该片获得2014年第86届奥斯卡最佳原创剧本奖。
由《Her》引出今天第一个论题:“影片中女主角那样的智能我们真的能做到吗?”
电影《Her》剧照
人大文继荣教授首先对此进行了解读,他表示我们虽然想把AI和人文社科结合,但并不知道方向在哪里。在我们不断推动人类技术边界的过程中,有很多问题出现,但是我们并没有太关注,比如现在所谓人工智能的产品不太有情感,因为它的优化目标不是伦理的东西,而是完成既定目标。距离实现片中的智能还有很远的路要走,但是我们可能能够在某些局部做到。比如利用现在的大数据和深度学习的技术,将你每天发生的事情记录下来,建一个个性化的模型,可以实现基本的聊天功能,甚至它可能变得比你更懂自己,但是从感情上或者自我意识上做到《Her》那样的,目前技术还很难实现。
张钹院士则明确表示这种智能目前是做不到的,因为里面包含了一个非常严肃的哲学问题,就是什么叫做爱,什么叫做美,这类问题本身的定义就是非常模糊的。人工智能目前遇到最大的问题,就是要在对人脑了解很少的情况下去做人工智能,这里面就会产生各种各样的流派,利用这种模糊性来宣传一些观点。但另外一方面,目前流行的人工智能主要基于人类的行为主义学派定义的智能,即人工智能在某些行为判定上超过人类。人工智能如果想要有新思路的发展,哲学层面应该走在前面。最后张院士表示,在研究上要成为真正的大师级人物,必须要有哲学思想,没有哲学思想不可能产生全新的格局。
来自工业界的杨田博士从人工智能相关产品的层面来解答了这个问题,他表示这里提到的人工智能是很聪明的,像人一样有情感有爱情,实际现在看到的人工智能产品跟这个差距有点大,现在感知到的人工智能产品基本都是来自于最优化问题衍生出来的。我们想真正做出具有人类情感的智能,这个差距还很大。但是我们要用一个机器模拟出这个现象和行为来是一件比较可怕的事情,人类其实有可能被人工智能的机器去利用弱点,反过来被机器所影响
那在未来十年的时间里面,最可能实现的AI场景是什么呢?自动驾驶?自动诊断?
杨田对此表示就目前对AI的定义来说,很多东西可以做得挺好,对话、语音合成,技术上面来讲已经能用,当然对学计算机的人来说,它离通过图灵测试远得很,挺难的。但是就现在来说,像语音相关的技术以及驾驶方面的技术其实有很多离实际应用很近。
张钹院士表示就目前来说,人工智能肯定是在很多限制条件下来定义的情况下,才能在某个方面超过人,它全面超过人是不可能的。如果我们要想知道人工智能究竟能做到什么程度?首先要定一个标准,什么叫人工智能?现在唯一能做的就是采用哲学里的行为主义流派。按照行为主义定义人工智能就是图灵测试提出来的基本思想。也就是说,这个机器表现出来的行为跟人一样或者差不多的,我们就认为它就具有智能。比如这个机器做图像识别,它能够把不同的图像分开,识别率接近人或者超过人,那我们就说在图像识别这个具体条件下它跟人是一样的。但是我们后来发现,这两个实际完全不一样。它的鲁棒性和抗干扰能力比人差多了,说明它背后用的原理完全不一样。我们现在只能做到这点,在某些行为上我们尽量接近人。
文继荣教授提出一个很有意思的思想:不精确的东西有很强的容忍性的场合是将来人工智能会成功的地方,他说道:写程序的各位可能心里一直有一个疑惑,为什么他写的程序叫人工智能,自己写的程序就不叫人工智能?他提出如果程序的输出是确定的,就不是人工智能,如果输出是模糊的,是带有不确定性的,可以由精度来衡量,比如人脸识别95%,就是人工智能。还有如果程序再进一步能够应付多样性和变化性,还得到比较高的精度就是人工智能。
主持人随后提到了美国哈佛大学政治哲学教授迈克尔·桑德尔在公开课上的一个故事:火车疾驰,司机在驾驶室里悠闲地喝着咖啡,一抬眼,猛然看见五个人正在前方铁轨上干活,按警铃,没响,拉手刹,失灵,眼看就要撞上这五个人,突然发现不远处铁轨有个分岔,岔道上站着一个人。是转向岔道,撞死一个人,还是继续开下去,撞死五个人?如果你是火车司机,会怎样选择?
张钹院士总的来说对于在中国用于维护公共利益而设立摄像头是支持的,但也表示个人利益和公共利益有些时候是矛盾的,按照中国的世界观和价值观比较强调公共利益,按西方的价值观比较强调个人利益,个人利益神圣不可侵犯,有这条宪法约定。这两个都是不对的,如何去平衡这两者是一个非常严肃的需要认真研究的问题。随后他举了一个利用在部分公共场合增加摄像头,从而使抓到逃犯的几率上升的例子装摄像头肯定损害了个人利益,但是西方做法是一种极端,中国的做法也是一种极端,这两个都是不够全面。他主张如果影响到了公共利益的罪犯要抓,个人要做点牺牲,但是这个是中国的哲学、中国的价值观,西方是不接受这种价值观的。
文继荣教授则呼吁道:目前有些数据的搜集是完全没有必要的。欧洲也许过于强调隐私保护,对大数据人工智能产业的发展造成很大的影响。但是我们也不应该纯粹为了发展人工智能产业而忽略隐私保护。
杨田博士反对说,在座的所有人其实或多或少都从所谓的个性化推荐上面获得了便利,个性化推荐我们也可以理解为向系统出卖了我们的隐私换来了生活的便利。从火车的角度来说,即使从功利主义的角度来讲,我们并没有充分的信息证明这边一定比那边高,这是不成立的。说到中国的传统文化,我们到处装摄像头,侵犯了公民的隐私权。但是摄像头的存在事实上确确实实改善了治安环境,中国的有句古话“举头三尺有神明”。在过去科学没有那么发达的时候,大家相信自己的一举一动有神在上面看着,所以道德教育约束我们自己,不要做坏事,教育我们要慎独。现在我们不相信神了,发现自己是没有约束的,没人看着我,我就随意了。这样带来不好的事情,不受监管,这样其实给所有的人带来一种损害。在这种情况下这些技术手段其实起到了威慑作用,看问题不应该这么极端和绝对去看,这里面的边界在于这个事情或者这种数据采集它能不能作为对我行为不当的一种证据。本身不应该由图像采集这件事情来承担。
文继荣教授提出了一个关键性的问题,这个问题是悬在我们头上的剑,而且风险很大,这个问题在于我们不能保证数据不会被滥用,很多事情容易越过界。如果这些事情不受监管的话,是非常值得担忧的。
还有一个论题是针对于AI武器这块的思考,对于未来的自主性,还有AI安全方面大家是怎么想的?
文继荣教授告诉大家:我们对AI的恐惧主要是来自于对它自主性的害怕,脱离开人的控制的恐惧感。从AI联想到这些武器和将来未来的机器有自主性,它有可能会脱离开人的控制,它的黑箱性以及随着环境自学习的能力,程序员开始给它一个规则,至于学出什么模型,很多东西都是随着环境变化慢慢都不可控。如果说不可控,同时又有很大的威力,这个就是很可怕的事情。
张钹院士说到人类的意志才是战争的根本,机器只是被操控的。战争里面不管发展到什么程度,最后都是按照人类的意志来进行的,不会按照机器的意志来进行的。危险在人不在机器,所有机器还是听人安排听人指挥的,包括自主的机器在内也是在听人安排听人指挥的。现在所有的发展都是这样,机器人做坏事是人指挥的,离开了人它就不知道干什么。所谓无人平台也好无人机也好,从来没有无人过,人在地下。
杨田博士表示他对AI武器最大的担忧在于,我们应该允许在没有经过人类审判的情况下让武器去消灭一个人吗?
最后以未来的机器有没有可能能做到这种大杀伤力或者带自主性的程度这个论题结束了此次活动。
张钹院士表示人工智能现在发展的技术基本在军事上面用不上,军事必须发展人工智能技术。自主性不是说随便让机器爱做什么做什么,任务安在机器里面,一旦跟前面断掉了,后面没有无线信号,它还照样能做,这是自主性。它不会主动做一些事情,只会做安排好的任务。
文继荣教授针对这个问题提出了一个想法,即可以依据它的智能体所面对的环境能处理的多样性或者变化性进行分级,传统写程序输入是确定的,输出是确定的。像自动驾驶一样,最后在所有的场景下都能够自主地完全用人工智能来完成驾驶,这是最高级别。
杨田博士则明确表明这自主性还是比较难实现的,因为从现在人工智能的发展程度来讲,都是在做任务,从解一个小的任务到比较大的任务,到特定的场景下能够工作,到能够去做更多的事情,这也是帮助我们更好地理解现在的人工智能所处的阶段和接下来要做的事情这样一个途径。
编辑:文婧