张钹院士:人工智能算法存仿声换脸风险,要防止被滥用

2022 年 7 月 5 日 THU数据派


  
  
    
来源:南方都市报

  本文为约2166字,建议阅读5分钟

本文介绍 了中国科学院院士、清华大学人工智能研究院名誉院长张钹在第十届世界和平论坛大会上发表的“安全的人工智能”主题演讲。

7月3日,在第十届世界和平论坛大会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹就“安全的人工智能”这一主题发表了演讲。 张钹院士表示,由于现阶段算法存在不安全、不可靠等风险,因此即便人工智能只是发展到初级阶段,但仍存在不确定性和危险性。

钹院士还表示,虽然现如今不必担忧有人利用智能机器人打造杀人武 器,但人工智能被误用、滥用也会导致“仿声”、“换脸”深度伪造的问题出现,这类技术往往以假乱真、难以分辨。 而且由于技术难度小、惩治力度小,也大大降低了造假成本。

针对以上问题,张钹院士重申了“ 第三代人工智能 ”的理念,认为应以人为本,将人类安全作为出发点,发展可信、可靠、可扩展的人工智能。他呼吁应加强国际合作,让人工智能健康发展,造福全人类。


张钹院士

现阶段人工智能是否威胁人类安全


人工智能是否会失控呢?包括霍金在内的很多学者秉持的基本观点是,如果人类一旦研制出有自我意识的超智能机器,那么人类将无法对它进行控制,这可能会对人类造成灾难性后果。但目前人类是否能制造出超级智能机器在学术界还存在争议,现阶段无法回答这一问题。因此,对于人工智能的安全问题,张钹院士认为不仅要考虑远虑,更要考虑近忧


现阶段人工智能不会对人类造成威胁吗?张钹院士否认了这一点,他认为虽然到现在为止,人工智能虽然只发展到初级阶段,但实际上也已出现一些安全问题,原因在于现阶段人工智能算法还存在不安全、不可信等风险。

张钹院士表示, 现阶段给大家展示的人工智能的决策结果往往是经过精心挑选后的最好结果 。但实际上大多数情况下,一些人工智能很难给出合意的结果,他举例说明了这一观点。“当我问人工智能,人有多少只眼睛时,它第一次回应称左眼100个,右眼99个;当我再次提问时,它又给出另一个回答称,人有28000个眼睛;如果再问它同一问题,它会说,经测算白日里有4亿颗眼睛,是夜里的20多倍。”

试想一下,如果我用这个系统帮助我做决策,那它可能会经常做出错误的决策。”张钹院士说。

数据安全 也是目前面临的重大安全问题。张钹院士指出,当前大数据对人工智能产生了较大的影响。 第一 ,数据呈现几何级增长,而现在也倾向于搜集全部数据来代替数据采样; 第二 ,重视数量,而不是重视质量; 第三 ,强调数据的关联关系,而非因果关系。

张钹院士认为这三种转变给人工智能带来了较严重的安全问题。2016年微软曾推出一款聊天机器人,由于不重视数据质量,后来这一款聊天机器人发表了一系列种族歧视、性别歧视的言论。此外,目前有一种攻击人工智能系统的方法“数据下毒”,通过为人工智能提供错误的训练数据影响人工智能。

深度伪造造假代价低、真假难分辨


针对防止人工智能被误用、滥用的问题,大多数人可能想得比较长远,比如利用智能机器人打造杀人武器。但实际上,当下人工智能也可能被滥用;如果被滥用,后果也极为严重。


张钹院士介绍了深度伪造这一问题,他指出现阶段用人工智能算法来伪造视频、照片、语音已不存在技术难题。为了更生动地阐明这一点,他在会议上播放了梁宏达的原声与合成音,发现这两个声音极为相似,几乎难以识别。

张钹院士表示,这两个讲话有一个是假的,一个真的,很难辨别。于是我们用机器判定,但两个机器的检验结果却都是错误的。第一个检验结果认为A是假的,B是真的,第二个检验结果是两个都是假的。但实际上A是真的,B是假的。

“试想一下,如果将来你没讲过的话,被别人造谣为你讲过的,而且后期技术也难分辨真假,那这对社会的危害是极大的,因此对于这一问题各方都应重视。”张钹院士说。

除了声音以外,“ 换脸 ”技术也足以以假乱真。张钹院士谈到通过换脸技术可以把视频中的“脸”置换,而且这一技术非常容易,但后期却很难判断真假。“原来视频上的人不是你,把你的脸放上去,你没做过的事情也归你了。”

张钹院士还表示,现在造假代价太低,很难找到始作俑者,而且惩治力度也较低。

如何防止人工智能出现失控的状态?

科幻作家阿西莫夫曾提出了 机器人三原则 。第一,机器人不能伤害人类,而且在人类受伤害时不能袖手旁观。第二,机器人必须服从人类的命令,除非这个命令违反了第一个原则。第三,机器人要保护自己不受伤害,但是不能违反前两个规则。

张钹院士表示,由于现阶段机器人行为是不可预测的,因此我们不知道这一行为是否会伤害到人类,因此也难去执行这一原则。对此,他重申要“发展第三代人工智能”。第三代人工智能的中心思想是以人类的安全为出发点,为人工智能提供了安全渗透、评估、加固、防火墙等方法,发展可信、可靠、可扩展的人工智能。

“我们现在提的方案很简单,就是 把人类的智慧加进去 。人类的智慧是什么?知识。现在数据驱动的方法只强调数据、算法、算力是不够的,还必须要把知识加进去。”张钹院士说。

张钹院士呼吁,“如今发展安全的人工智能已是当务之急。作为人工智能研究者,我们必须把精力集中在发展以人类安全为核心的安全的人工智能。我也希望全世界可以团结起来,通过国际合作来让技术服务人类需要,让人工智能健康发展,造福全人类。”
——END——

登录查看更多
0

相关内容

张钹,1935年3月26日出生于福建福州福清县,计算机科学与技术专家,俄罗斯自然科学院外籍院士、模式识别和人工智能专家,中国科学院院士,现为清华大学计算机科学与技术系教授,清华大学人工智能研究院院长。历任清华大学校学位委员会副主任,智能技术与系统国家重点实验室主任,中国自动化学会智能控制专业委员会主任。主要从事人工智能、人工神经网络、机器学习、知识工程与机器人等领域的研究。个人主页:https://baike.baidu.com/item/%E5%BC%A0%E9%92%B9/4140426?fr=aladdin
人工智能时代的糖信息学
专知会员服务
9+阅读 · 2022年8月21日
【AI+军事】附论文《建立信任和接受技术的综合模型》
专知会员服务
23+阅读 · 2022年5月2日
专知会员服务
56+阅读 · 2021年7月5日
人工智能并不像你想象的那么迫在眉睫
InfoQ
1+阅读 · 2022年6月29日
“健康医疗+AI大数据”前沿技术高峰论坛举行
THU数据派
2+阅读 · 2022年3月9日
人工智能向“上”生长,可信AI渐行渐近
机器之心
0+阅读 · 2021年12月24日
专家观点 | 人工智能解决数学题:“大力未必出奇迹”
中国科学院自动化研究所
0+阅读 · 2021年11月24日
人民日报撰文—— 张钹:中国人工智能奠基者
THU数据派
1+阅读 · 2021年9月2日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年9月13日
Arxiv
0+阅读 · 2022年9月12日
已删除
Arxiv
31+阅读 · 2020年3月23日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员