12月8日,AI 与安全研讨会在清华大学召开。在研讨会上,阿里巴巴分享了阿里在安全 AI 技术方面的经验和实践。
当前,随着深度学习技术突飞猛进的发展,AI 已经被广泛应用于各个场景中,例如我们的日常生活、工业生产等多个领域,包括自动驾驶、安防、医疗、金融等关键领域。但随着应用领域的不断扩展,深度学习的缺陷也逐渐被人发现,例如可解释性、安全性、可靠性和泛化能力等不断受到质疑,进而引发了人们对其整体安全性的担忧,导致 AI 安全也逐渐受到学界、业界和社区的广泛关注。因此,提升 AI 的安全性,打造更安全的 AI 系统成为下一阶段关键领域应用的重要课题。
在本次研讨会上,阿里分享了 AI 在安全领域中的应用,以及对 AI 安全性的理解和实践。机器之心同时对阿里安全图灵实验室负责人薛晖进行了采访,了解了阿里在提升 AI 安全性方面所做的技术实践。
AI 安全日益重要
AI 的安全性近年来受到业界和学界的关注。提升 AI 安全性成为机器学习,特别是深度学习社区所努力的方向。阿里巴巴基于自身在 AI 和安全领域的业务实践,在去年底提出了安全 AI 的理念,包括两层含义:1)使用 AI 解决安全问题,让安全更加智能;2)提升 AI 自身的 安全性、鲁棒性和泛化性等,让 AI 更强大。
安全 AI 应当具有四个特征:
能够从小样本、低质量的数据中进行学习;
在不同的业态和场景中都具有良好的泛化和迁移能力;
模型可信赖、可解释;
在对抗攻击下安全和鲁棒。
安全 AI 的第一方面:使用 AI 解决安全问题,让安全更加智能 随着技术的发展和进步,安全领域的场景和问题更加复杂,使用传统技术难以有效应对。如何使用 AI 技术发现并解决安全问题,也是很多企业进行探索和实践的课题。更进一步来说,人工智能的技术力量也具有潜在的破坏性,从网络安全到国防安全,研究 AI 安全问题,也有助于保护我国经济、社会乃至国家安全。
安全 AI 的第二方面:提升 AI 自身的 安全性、鲁棒性和泛化性等,让 AI 更强大 另一方面,由于处于当前发展阶段的 AI 无法满足上述安全 AI 的四个特征,导致它无法被应用于在一些关键应用领域,例如辅助医疗的诊断结果、自动驾驶的控制指令等都必须给出可解释性的决策规则,让生产方和使用方能够清楚的了解判断依据,但目前的深度学习模型的黑盒性还无法做到这一点,因此安全性成为制约 AI 扩大应用范围的一个主要障碍。
安全场景中的 AI 风控大脑
阿里已经将 AI 应用于各类安全场景中。本次研讨会期间,机器之心也了解到了阿里在一些场景中的实际应用。
根据资料,阿里目前已建成了安全场景下的 AI 风控大脑,通过整体系统,在各个业务层面应用 AI,帮助解决各类安全问题,包括知识产权保护、原创保护、内容安全等方面。
综上所述,AI 与安全是一个永恒的话题。安全领域需要 AI 的介入和协助,从阿里的在知识产权保护等一系列场景中的实际可以说明,AI 在安全领域有很大的应用空间。而另一方面,在 AI 逐渐深入日常生产生活的过程中,阿里也一直在致力于提升安全性,确保 AI 性能稳定,决策渐渐变得透明。 本文为机器之心原创,转载请联系本公众号获得授权。 ✄------------------------------------------------加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com投稿或寻求报道:content@jiqizhixin.com广告 & 商务合作:bd@jiqizhixin.com