作者 | 青暮、陈彩娴
今天,刘云浩教授万字回复学生2000个问题的帖子引起了极大关注。
2020年8月的第一周,清华大学暑期学校在荷塘·雨课堂上“云开学”。刘云浩教授如期而至,为同学们作了题为《What is the role of AI Tomorrow?——人工智能打开了潘多拉的盒子吗?》的专业认知讲座。
刘教授就学生所提问的关于AI的技术发展现状与应用、AI与人类社会之间的博弈、AI哲学与人文伦理、AI的未来等问题进行了梳理与耐心回答。除了基础的AI技术知识,我们发现刘老师就人工智能与人类社会的相互影响方面作出了大篇幅回答,其话语可谓文理贯通,循循善诱。
谈及刘云浩教授的传奇人生,那些显赫的头衔与耀眼的荣誉或许离大部分人来说都太遥远:密歇根州立大学与清华大学教授、ACM主席奖首位华人获得者、“青千”、“杰青”、长江学者、ACM Fellow、IEEE Fellow...除去卓越的科研成就,刘云浩之所以为人称道,还在于他的跨学科教育经历、“接地气”的行事风格与亲切有趣的师风师貌。
除了讲座期间刘老师当场回复的问题之外,还收到了包括弹幕在内的2000多个提问。
刘云浩教授经过选择、合并、归纳成了92个问题,写了近3万字回复。
类似的事情刘云浩教授之前也做过。连续几年参加完暑期学校的讲座之后,同学们提出的问题,他都以这样的方式进行了回答。
今年讲座形式由线下转为了线上,但刘云浩教授的真诚和用心,一如既往。
刘教授也许是最“文艺”的工科男:自幼阅读诗书,精通文史,人文知识渊博深厚,大学期间曾出过历史题材的书籍《雍正之死》,还出版过一些翻译作品,如《蓝色长袍的国度》、《胡迪尼传奇》等,秒杀一大批文科生。
论读书的勇气,刘教授也秒杀一大批理工科学子:本科就读于清华大学自动化系,保送本系研究生,但刘教授并不按常理出牌,放弃保研资格,按照自己的理想考研转到北京外国语学院高级翻译学院主修同声传译(北外的高翻院被誉为翻译界的终极梦想)。
忙碌的求学生涯之外,刘教授还在中关村与他人合伙开电脑公司,混得风生水起,90年代便年收入过千万。发现开公司不是自己所追求的之后,他还曾经尝试过读人大历史系的研究生,而且几乎拿到北邮管理学院博士。
他还曾参加邮电部公文考试,成绩出类拔萃,成为当年部门最年轻的处级干部。
终于,在三十岁的时候,他意识到自己最适合的是科研,于2001 -2004年在美国密西根州立大学三年之内拿到了硕士和博士学位,博士论文在美国密歇根州立大学获得优秀奖,成为该系历史上第二快毕业的博士。他在科研工作上也成绩斐然,累计被引用超过一万五千多次,多次进入中国爱思唯尔计算机类高被引学者名单;他还是我国最早定义物联网的“前辈”之一,出版教材《物联网导论》作为物联网领域的开篇专著备受业内人士好评。
在密歇根州立大学毕业后,刘教授受邀到香港科技大学计算机系任教,科研成绩卓越,获得科大终身教授的待遇。但是,刘教授再一次放弃了这份荣誉,选择回到清华大学当教授,一年之内入选国家青千、国家杰青、长江学者;走完了别人可能一辈子都走不完的路。2018年,刘教授离开清华、赴美国密歇根州立大学任计算机主任,但同时仍担任清华大学软件学院教授(No Pay Leave)。为国内科研发展与教育奉献自己的力量。
刘教授的人生选择可谓敢想敢做,看到这里,谁还能说自己的事业为时已晚?
或许是希望同学们能少走弯路,刘云浩教授非常热衷于引导后辈,不仅连续几年在暑期学校讲座之后回答学生数千问题,而且还书写寄语鼓励学生,这里将2019年和2020年的寄语分享如下,希望对同学们有所助益。
对于这92个问答,AI科技评论从中筛选了几个值得读者深思的问题,作了不修改原意的整理与编辑,希望能帮助大家在学习人工智能技术的道路上有所启发。
Q:如何看待GPT-3在近期引发的讨论,怎么看待现在人工智能数据量、参数、训练成本甚至推理成本都在不断提高的趋势?
A:GPT-3一发布就引起了业内的广泛关注,人们惊奇地发现,当给模型足够多的参数并用足量的数据训练后,人工智能不仅可以写文章、编故事、搞翻译,甚至可以写代码、做数学运算、画表格、生成复杂格式的数据等等,几乎是在文本方面为所欲为了,说GPT-3是NLP的王者毫不为过。
GPT-3在一定程度上意味着深度学习还没有完全走到极致,继续增加资源投入还存在取得更好效果的空间。
丰富的数据使GPT-3在答题、写文章、翻译甚至生成代码方面的效果都非常好。
和其他深度学习技术一样,GPT-3也可能针对“错误”的输入给出错误的预测,例如你问它“我的脚有多少只眼睛?”,它会回答“你的脚有两只眼睛。”
这类问题对GPT-3这样的系统并不容易解决,所以GPT-3这样的系统会不会是深度学习的尽头还有待历史检验。
GPT-3耗费巨资训练模型,很难被一般的科研团队效仿,所以很难说这会不会成为一个趋势。倘若这真的成为趋势,那此类人工智能算法将形成一定规模的技术垄断。
Q:高级AI的研究是否需要依托于强大的计算机?这里的“强大”需要到什么程度?我国目前的超算能否为AI研究提供足够的条件?
A:目前AI的研究确实需要依托强大的计算机,例如打败柯洁的AlphaGo使用了64块GPU进行训练。目前,我国的超算处于世界一流水平,但服务对象主要是生物医药、海洋科学、油气勘探、气候气象、金融分析等领域,AI所需的计算资源与这些领域不尽相同,针对AI的长三角AI超算中心已于今年6月开工。
Q:计算机的算力会不会有极限,如果有极限或者提升瓶颈,对于深度学习的发展会不会有影响?
A:
计算机的算力可以从两方面来理解:一个是它本身的运算速度,另一个是数学层面的计算复杂度。
计算机本身的运算能力在相当长的一段时间里,主要都是受工艺的影响,也正因此,随着工艺的不断进步,基于神经网络的深度学习一直到最近10年才有爆发式的增长。而这种增长是受到物理规律限制的。
另一方面,算法也是有极限的,例如很多问题我们还提不出或是无法提出较优的算法,这个极限也很难甚至无法突破。
A
:AI的学习能力可以从两方面来衡量,
一个是模型本身的能力,例如GPT-3的能力就显著强于其他自然语言处理的模型,另一个则是设备能力,训练设备越好,训练的速度就越快。
Q:目前的人工智能已经发展到什么地步了,是否发展过快?
A:现在人工智能在特定领域取得了非常好的效果,科学家和工程师们都在努力地把已有的算法用在各个行业里,不过目前还不存在普适的人工智能框架,因此人工智能虽然会触及各行各业,但以怎样的方式影响,还有待实践检验。
另外,关于人工智能是否发展过快,
对于从业者来说,希望产业发展的越快越好,所以对他们来说,很可能会觉得人工智能发展速度不够快。但对于大众来说,铺天盖地都是人工智能的宣传,所以对他们来说,可能会觉得人工智能发展速度很快。
这个发展速度本身也不是一个有科学方法衡量的量。
Q:为什么说导弹和原子弹属于人工智能的范畴? 如果说逻辑主义、行为主义、连接主义三种方向没有孰优孰劣的话?为什么大众普遍观念上对AI的理解似乎更倾向于认可深度学习而非控制论?
A:
导弹和原子弹大量应用了控制论的理论和方法,而这些方法正是人工智能理论的重要组成部分
,在当时的历史条件下称其为人工智能并不为过。
从历史发展的进程看,并非只有深度学习才能称得上是人工智能。
必须承认,近几年最受人关注的人工智能应用的确是深度学习,但是这些应用还非常依赖场景,在一些应用中,基于深度学习的方法效果不理想,而这些都是其他方法可能大展手脚的地方。
Q:未来如果量子计算机实现了,其是否会突破图灵-冯诺依曼的框架,还是只是让计算机由单线计算变成并行计算?
A:量子计算机的重点在于量子,简单来说,它是一种可以实现量子计算的机器。而冯·诺依曼体系结构是计算机架构,并不涉及是哪种计算机,量子计算机也可以采用冯·诺依曼体系结构,因此并未突破其框架。
Q:请问如何看待中国软件行业的现状,以及我们应如何在美国施压下发展计算机产业?
A:在应用软件特别是面向消费者的应用软件方面,我国是处在世界一流水平的,有些移动应用(如TikTok)已经处于世界领先水平。
但是在工业软件(如电子设计自动化EDA软件)和基础软件(如类似Windows的操作系统)方面,我国与世界一流水平还有较大的差距。
在这些领域,国际合作是十分重要的,因为不是每一项技术我们都能在短时间内掌握。但这绝不意味着我们要放弃自主研发,面对世界局势的变化,采购不能解决所有问题,甚至合法的商业活动也会面临来自外部的干扰。
广泛结交朋友,拥抱开放理念,加强自主研发,逐步达到世界领先水平,这需要包括你我在内的几代人不断努力才能实现。
Q:目前人工智能在皮肤科、病理科、影像科和中药医学上已经有了比较好的应用了,未来人工智能有可能完全取代医生这个职业吗?或者说有没有哪些科室是人工智能无可替代的?
A:近年来,将中医与人工智能结合的案例有不少,从诊疗辅助设备到开药方,都有企业、高校在做研究和实践,甚至还有一些人工智能概念中医诊所已经在线下开设了。
目前人工智能在一些医学领域已经得到了应用。但医学是一门理论与实践并重的学科,按照当前人工智能发展的规律,它并不能比人类掌握更多的知识,只是在特定领域比人类做得更好。
医疗并不只是简单的诊断和治疗,中间的人文关怀必不可少,纵使有一天人工智能可以给出和医生一样的处方,也依然需要医生来做最后的把关。
A:人工智能在建筑领域的潜在应用是巨大的。例如,
从实施过程来看,人工智能在施工中给管理者和工人提供数据分析、过程管理等服务,可以增加施工的安全性,提高施工效率。
从整个工程信息平台、建筑管理平台来看,应用人工智能技术在节能、建筑安全方面都有不少价值。
Q:您认为AI在文学、艺术等更具创造力的领域会有多大作为?
A:目前AI在艺术领域已经进行了一些尝试,在2018年,一幅AI创作的肖像画拍出了432500美元的高价,这幅画叫Edmond de Belamy;在文学创作上,OpenAI公司的GPT-3可以写出一些有趣的短文;在音乐创作上,来自于清华的DeepMusic团队尝试用AI作曲。
但是,AI在艺术领域的进展远远比不上它在图像处理等领域的成就。
机器的创作与人的创作有本质的不同。
基于现有的技术,我们很难说AI真的理解艺术中的美感与表达的情感,
课上我们简单讨论过,人的创作需要灵感,寻找灵感的过程有时就像大海捞针,王羲之就曾说过,《兰亭集序》如果让他再写一次,没有了当时的灵感与情感迸发,他很难再写出那个水平。
以作曲为例,AI可以通过算法穷举音符的各种组合,通过一些规则过滤掉其中明显刺耳的那些,再基于历史数据最终挑选出可能符合人们审美的旋律,这很难说是基于灵感和情感的艺术创造。今后我们很可能会看到很多机器产生的“作品”,但我认为它们不能取代人类。
Q:人工智能技术目前在自动化生产方面有哪些类型的应用?
A:
AI最明显的优势之一就是能够完成重要但重复的任务而不会出错,从而使单调的任务可以更高效完成。在自动化生产方面,典型的应用包括对于工业设备的数据采集和故障诊断,对于工业产品的优化设计分析,以及对于人工操作的辅助和替代等。
Q:如何将人工智能应用于在复杂宇宙环境下对卫星运行轨道进行预测?
A:人工智能在航空航天领域已有了许多应用,例如今年5月份SpaceX发往国际空间站的火箭上就搭载了一个基于人工智能的自动导航系统。
Q:为什么您作为理科生还能获得文学硕士学位呢?您是如何做到文理兼长的呢?作为一名文科生,想请问刘老师的研究领域是否能与人文社科相结合?
A:我可做不到文理兼长,争取文理平衡吧。
我认为最佳途径就是增加阅读量。
不能只看摘要和微信上别人总结的文字,看原著/原文。哪怕看不了很多本,看一本是一本。如果你希望提高文学方面素养,将来我可以从一个理工科背景的人的角度给你推荐一些容易的文学作品以及哲学作品。
文科生能做的事情有很多。你可以给机器学习专家贡献你的专业知识,也可以从人文关怀的角度去研究人工智能法律、伦理和哲学问题等等,而且这些方法也是避免技术产生弊端的途径之一。
A:计算机入门读物我推荐
《编码:隐匿在计算机软硬件背后的语言》(Charles Petzold著)
;人工智能读物我推荐
《为什么》(Judea Pearl、Dana Mackenzie著)
。能读原文就咬牙读原文。
Q:如果没有相关基础,比如物理和数学方面的知识,上大学再学计算机或人工智能还来得及吗?
A:不只是计算机或人工智能,任何专业的学习都与中学有较大的差别,不过大家不用担心,
培养方案的编排是符合教育规律的,只要按照教学计划学习就可以了,不用担心自己是否有基础。每年我们录取的新生中,都有非常多的同学在计算机方面是零基础的。
我给你讲一个我的例子。初中的时候,很多同学小学根本没有碰过英语,而我和其他几个人小学上过一年的英语课。我们就很得意。老师说你们别得意,很快大家就拉平了。果然到了初中毕业的时候就已经分不清楚谁是小学学过英语的了。大家不要担心基础问题。当然,你提前学习一些相关知识肯定只有好处没有坏处。
AI专业(计算机专业)对于数学和物理的要求并不会比其他工科专业更高。不管你将来选择什么专业,在高中时学习好各科基础知识(不光是数学物理)都是很重要的。
Q:自动化专业、计算机专业和人工智能专业的关系是什么?
A:从定义上说,自动化是关于人工与自然系统自动、智能、自主、高效和安全运行的科学与技术,是信息科学的重要组成部分,以“系统论、控制论、信息论”为核心。自动化技术广泛应用于工业、农业、能源、交通、金融、军事等各个领域。大家熟知的机器人、载人飞船、高铁、智能交通等各种复杂工程系统的核心都是自动控制系统。
以计算机与软件工程、自动化、电子工程等信息类为代表的专业是当前研究人工智能的主力,这主要是因为无论从信息论还是控制论出发,现阶段人工智能研究的核心主要是算法。
但是人工智能并不是自动化系或是计算机系独有的,甚至不是信息学院所独有的。我们也说过,现在人文社科急需加入到人工智能研究工作中来。
Q:请问老师对于AI成为热点有什么看法?作为个人现在选择AI行业会不会遭受很大的竞争压力?
A:
任何专业都有热的时候和不热的时候,但任何专业都有自己的价值和发展。
我们选专业一定不是冲着热门去的,而是尽量要选自己喜欢,适合自己的专业。什么是喜欢,这个容易理解;什么是适合?这个要自己摸索。无论在哪个专业,想做到最好都需要比别人更加努力。
Q:能否谈一谈计算机本科生的就业前景,以及计算机硕士乃至博士学位对自我发展的影响。读硕士和博士耗时长,会不会使自我技能被学历延误而导致过时呢?
A:硕士博士都是研究生学历,顾名思义,研究生的主要任务是在本领域做一些研究
作
工作,最终具备独立或半独立做科研的能力。
当今这个时代,新知识是层出不穷的,因此谈论过时是没有意义的,而自主学习能力恰恰是大学教育中重要的一环,所以不必为这样的困惑担忧。无论什么学位,你具备了应有的能力总能找到适合自己的工。
A:霍格沃茨在新生的开学典礼上用分院帽为每位小魔法师分配院系,我觉得这个或许可以用AI实现,小说中的分院帽能读出每个人的心中所想,这个AI目前还做不到(简单判断人类情绪的AI目前是有的,例如DeepMoji),
不过AI可以根据以往各个学院学生的历史数据,训练一个模型,根据每个新生的性格和能力等特征为每个学生分配合适的院系。
亚瑟克拉克说过,“任何先进的技术,初看都与魔法无异”。我们现在所拥有的技术,在几百年前的人眼中,恐怕就是魔法。
Q:阿西莫夫的机器人三大定律对未来人工智能是否适用?
A:阿西莫夫笔下的机器人,其实已经具备了我们所说的“强人工智能”的特点。阿西莫夫提出的总原则“机器人必须保护人类的整体利益不受伤害”在任何时候都是具备指导意义的。但是,人工智能也是人类的作品,如果制造它的人满怀恶意,那后果也可能是极其危险的。
Q:对于科幻小说中出现的人工智能法官,现实之中是否会出现诸如此类的人工智能算法,提高当前的判案的成功率与效率?减少冤假错案的出现?
A:现实中类似的AI已经出现,2019年6月搜狗与北京互联网法院联合发布了全球首个“AI虚拟法官”,能够实时在线为用户提供“智能导诉”服务,引导用户更流畅地使用网络诉讼平台。
Q:我看过关于“反图灵测试”的小说:计算机作为评委评判两个人(对二人进行图灵测试),最终计算机在未被告知的前提下判断出了自己是计算机。您认为这种测试是否有意义?
A:你提到的这种测试方法非常有趣,他对人工智能的要求比图灵测试更高,
图灵测试只要求机器对外界输入的反馈与真人无异,但你提到的这种测试要求机器要具有自我意识,而且能够跳出预设的思维模式,进行自我的反思。
目前的技术手段还不足以赋予机器自我意识,因此,这种检测方法还没有现实意义
,不过出现在文艺作品中确实可以让情节更加出人意料。但是,是否通过了这种测试,就真的能证明机器有自我意识呢?是否有可能机器只是机械地输出了“我是一个机器人”?
要对自我认知进行检测是非常困难的,比如,让你证明你具有自我意识,你要怎么做呢?如果你看过《飞越疯人院》,你就知道,自证一件事,往往很难得到他人的认可。
这或许需要全新的理论体系。
Q:《三体》中的智子算是人工智能吗,若算是,那人工智能会发展到那种地步吗?
A:“智子”是小说中的“物体”,本身并不是科学,很多特点也违背了物理规律。科学教育的目的就是希望大家知道,哪些是文学想象,哪些是科学实践。
想象能否成真?不能说都不能。
但是我们作为具备科技思维能力的人,不能随便被“忽悠”。哈佛大学校长德鲁·吉尔平·福斯特 (Catharine Drew Glipin)曾在新生欢迎会上说过:高等教育最重要目标就是确保毕业生能够辨别“有人在胡说八道。
Q:判断一个类生命体是人还是AI的标准是什么?如果说人工智能真正实现像人类一样的智力与情感,会发生什么?现在人工智能发展到现在,离通过图灵测试的距离还有多少?在未来,机器人真的可以像人类一样拥有自我意识吗?
A:目前人工智能的水平还不太高,比较容易判断,比如上网时用到的验证码就是一种手段,但如果今后人工智能真的达到了接近人的智力水平,想仅仅通过外部观察判断,恐怕就很困难了。
图灵测试本身的要求就是让人无法分辨是人还是机器。2014年,名为Eugene Goostman的聊天机器人“通过”了图灵测试,但这一结果备受争议。换言之,还没有机器通过图灵测试,但是这个我相信不遥远了。我们谈论图灵测试,其实是想从人的智能的角度来判断机器是否具备人类的智能,这个标准其实是比较主观的,按目前人工智能的技术发展来看,在可预见的未来还看不到这种可能。
从研究现状来看,人工智能距离拥有人类的智力和情感还差得非常非常远。拥有情感和拥有意识是同一个量级的事情。对于具备人类智力和情感的人工智能的想象,很多文学、影视作品都很成功,例如阿西莫夫《银河帝国》里的铎丝、诺兰《西部世界》里的接待员们,都值得一看。但是,当前的技术来看,这些都只是文学作品的想象。
目前的人工智能不具备自我意识,按照目前的技术,人类无法创造出有自我意识的人工智能。
图灵提出了著名的图灵测试来判断机器是否具有“智能”,而关于机器是否具有“意识”,目前尚没有相关的判断标准或思想实验。关于人类自身的意识究竟是什么,是如何产生的,这是生命科学也尚未能解决的难题。所以现阶段,当我们谈论人工智能的思考,其实都是在谈论人类设计的算法。
Q:人工智能可以下围棋、写诗等等,甚至比人类做得更好,那这到底算不算是“机器会思考”?
A:
关于AI是否会思考,取决于我们如何定义思考
。如果可以和人对话或完成一些与人互动的基本任务叫具备思考能力,那么很多语音助手、AlphaGo等AI就已经具备特别初级的思考能力了。而更高级的思考,人们也还在努力研究。但会思考并不等同于有意识,目前技术条件下的AI与人类智能仍然存在较大差距。
Q:如果人工智能最终超过了人类,人类算是进化了吗?如果说基因有自发的复制趋向,那么在理论上,人工智能的程序有没有可能会出现这种自发的复制或变异行为呢?
A:“进化”是一个生物学的概念,在维基百科中被定义为“生物的可遗传性状在世代间的改变”,人类最终创造出了超过人类的人工智能,这无疑是人类科学技术的进步,但似乎并不能认为是“可遗传性状的改变”。或许你的意思是“人工智能超过了人类,人工智能作为新人类,相比于普通人类,是否能称作人类的进化”。这是个很有趣的问题,按照“进化”一词的现有定义,人工智能与人类没有世代传承的遗传物质,因此我觉得不能称作“进化”。
基因复制是一个生物学概念,也是生命得以延续的基础。本质上来说,人工智能只是人类创造出来为自身服务的技术和工具。人工智能程序是否会出现复制或变异行为也取决于算法设计师对程序的设计和实现。
Q:因为人脑是有限物质,人工智能一直在进步和发展,所以必有一天人工智能会“超越”人脑?
A:有限的物质也可能产生出无限多种组合,举个例子,细胞的动作电位就是个连续值,当几百亿神经元相互联结在一起时,便有无穷多种可能。按照目前技术的发展,还看不到人工智能“超越”人脑的可能。
Q:AI今后会向什么方向发展?它的发展是会走向发展意识的方面,或是发展更多的功能的方面?
A:从现状和技术发展趋势来看,人工智能还无法做到人类的认知,现在的人工智能只能按照人类预设的方式产出结果,并没有所谓的“认知”或“意识”。人类的认知尚且是生命科学还没能解决的难题。在今后的一段时间里,人工智能还是会以领域应用为首要发展目标,人们会在各行各业探寻人工智能技术的应用落脚点,无论是自然科学、社会科学还是各行各业的生产生活工作,我们都会看到人工智能的应用。但人工智能的发展是否止步于此呢?
Judea Pearl认为当前人工智能基于概率模型的这条路已经走到尽头,要想推进人工智能的进一步发展,我们应该另辟蹊径,去探寻思维背后的因果推理框架。
Q:当人工智能高度发达时,尤其是智力方面超过大部分人,我们需要给他们,像人类一样的社会权利,成为和我们平等的存在吗?还是他们始终只是人类提高生产力的一个工具?
A:按照目前的技术,不存在达到你提到的场景的可能性。而这类问题恰恰应该通过伦理、法律、政治等方面的深入研究和相关手段来解决。
Q:AI在参与社会管理时是否难以协调人文关怀和效率最大化的问题?
A:技术的最终目的是服务于人。我们希望利用人工智能突破人类各种限制,帮助人类更好地生活,这才是根本目的。如果AI远离了人文关怀,甚至造成了诸如性别歧视、种族偏见等问题,纵使算法的效率再高,也会失去意义。因此人工智能的发展一定不能忘记人文关怀,以此为基础才能谈论效率优化等性能问题。
Q:随着人工智能的高速发展,人类的科技发展将会加快还是会停滞?
A:从宏观上看,我认为人工智能会促进人类的科技发展,首先人工智能的发展本身就是科技发展的一部分;另外,人工智能作为一种工具可以辅助其他领域的科研工作;最后,正如前面所说的,人工智能可以将人们从机械性劳动中解放出来,提高社会的生产力,从而使更多的人有更多的时间从事科研、艺术等工作,这也会加快人类的科技发展。科幻作家刘慈欣先生也认为,整体上人类科技的发展是在加速的,在小说《三体》中,他就提出了技术爆炸的概念。
如果具体到AI技术本身在短期内的发展,AI技术已经经历过两次“寒冬”了,至于这次的热潮之后,AI究竟会加速发展还是稳步前进,抑或是走向第三次寒冬,目前还难以判断。
Q:人工智能带来的伦理挑战应该如何应对?在伦理上和感情上人应该怎么看待人工智能呢?
A:中外很多机构也都在关注人工智能的伦理问题,例如联合国在2017年发布了《世界科学知识与技术伦理委员会关于机器人技术伦理的报告》,欧盟在去年发布了人工智能伦理准则。
人工智能涉及的社会伦理等问题只依靠技术是无法解决的,需要各学科,尤其是人文社科的同学们未来的努力。有很多问题,不只是管理,而是深入其中地参与把握发展方向。
Q:机器智能的缺陷是倾向于被完善还是被保留下来以平衡人和机器?
A:从算法层面来看,错误分析的确是目前深度学习中十分重要的一环。本质上来说,深度学习模型在训练过程中会不断迭代、调整网络中的参数使得输出结果尽可能与预期相同(即AI不再出错)。从伦理层面来看,我们有必要区分这种缺陷是对人有利的还是有害的,需要分情况来讨论。
Q:未来的人机关系会达到怎样一个“理想”的地步以及如何平衡数据采集和隐私保护的冲突?
A:人机关系是复杂的科学和哲学问题,无论今后的发展采取什么技术路线,这类研究都需要小心谨慎。随着互联网、大数据、人工智能等技术的不断突破,数据量迅速攀升、数据维度也更加丰富,隐私保护与数据采集和利用之间的矛盾愈发凸显,隐私问题也得到了广泛关注。欧盟制定了通用数据保护条例(GDPR),目前已经实施。中国人大常委会也在推进个人信息保护法的立法工作。
除了国家的立法之外,企业也应当承担起自己的社会责任,我们看到安卓等操作系统也在不断完善自己的隐私保护机制。同时,通过技术手段保护隐私与数据安全也是计算机科学领域重要的科研方向,例如姚期智教授提出的百万富翁问题(两个百万富翁想知道谁更有钱,但都不想透露自己的具体财富数额)。相信在全社会的共同努力下,这些问题会逐渐得到解决。
Q:AI在日常生活中的应用会使人产生对信息存储和处理的依赖从而向低智化碎片化发展吗?或是对人的智力有提升促进作用?在决策时,AI提供的理性分析与人类的情感之间应如何权衡?
A:AI的进步和发展给人们生活带来巨大便利的同时也势必会促进社会的飞速发展,我相信人类的能力和智力也会进一步提升以适应社会的新变化。AI今后一定会为人们决策提供有力支持,但做决策最后拍板的一定是人。至于如何在AI理性分析和人类情感之间权衡,需要具体问题具体对待。究其根本,AI只是为人类服务的一项技术和工具,而决策权则掌握在人类手中。
Q:人工智能的不断发展对社会就业的巨大影响有利有弊,但对我们的影响是利大于弊还是弊大于利?人工智能对社会生产力的影响主要体现在哪?
A:第一个问题,我认为总的影响是利大于弊的。关于对社会就业的影响,互联网之父Vint Cerf认为:从历史上看,技术创造的工作要多于破坏的工作。从旧技术向新技术的转移与总体就业率下降并不是一回事。这是从工作的数量上来说的,从质量上看,人工智能可以将人类从简单重复的枯燥工作中解放出来,让人们有更多的机会做自己喜欢的事情。
整体长远来看,人均收入、居民消费及社会发展都会随着新技术进步而得以提升,总体就业率也会进一步增加而非降低。至于由于特定领域从业者由于职业被人工智能取代所引发的失业及公平问题,这肯定需要国家和社会层面进行全局调控。
从我们个人发展的角度,我们要做的就是终身学习,提高自己学习新知识的能力,从而能够适应科技的不断发展所带来的改变。在现阶段,人工智能只能在一些简单的、有确定规则的领域取代人类,而在那些依赖于人类的思考能力与创造能力的领域,人工智能能做的还非常有限。
第二个问题,人工智能在社会生产的各个方面都产生着影响。比如无人仓库利用机器人搬运货物,提高了物流系统的效率;许多企业使用人工智能客服,虽然不总能给出让人满意的答复,但总体上还是减轻了人工客服的工作负担;再比如航空公司通过“预测性维护”大大减少了设备维修的成本。
https://weibo.com/ttarticle/p/show?id=2309404537496498471101#_0
阅读原文,直达“ ECCV ”小组,了解更多会议信息!