人工智能可以帮助我们进行决策,但谁能来解释 AI 做出的判断对不对呢?
2020 年 6 月,杜克大学一项发表在 AI 顶会 CVPR 的研究曾经引发人们的讨论热潮。一个名为 PULSE 的人工智能算法可以把加了马赛克的人脸照片恢复成清晰的面部图像。
PULSE 模型使用著名的生成对抗网络 StyleGAN 来生成高分辨率图像,与其他方法相比生成的图片效果更好,清晰度更高,细节也更加丰富。
不过人们在测试之后也发现了一些问题,比如你把美国前总统奥巴马的打码照片交给 AI,它会将其还原成一个白人:
在 PULSE 的「偏见」被曝光后,人工智能社区瞬间被引爆,项目作者首先给出了回应,表示出现这种情况可能是因为 StyleGAN 的训练数据集,也有可能存在其他未知因素。
人工智能领域的先驱,图灵奖获得者 Yann LeCun 对此甚至还在社交网络上和人们论战,他先是解释为什么 PULSE 会出现这样的偏见,但并未引来普遍的认同。
之后 Yann LeCun 又在多条推文中解释了自己关于偏见的立场,由此引发的讨论远远超出技术的范畴。
对此,从事数据科学领域超过十年的 Luca Massaron 认为,尽管从技术角度来看 Yann LeCun 是完全正确的,但看看这种观点被抛出之后公众的反应,你就会知道谈论它是多么的敏感。
PULSE 还只是一项学术研究,去年在 Facebook 的推荐算法中,包含黑人与白人平民和警察发生争执的片段被标记为「有关灵长类动物的视频」的事件引发了轩然大波,脸书一度禁用了视频推荐功能并道歉。
在获得广泛应用的背后,由于 AI 是由大规模数据驱动,无需阐明推理逻辑性的方法,所作出的「统计规律」判断经常会受到人们的质疑。
深度学习的运行机制难以理解,对于 AI 工程师们来说就像「炼丹」——难以溯因,难以调参,对于大众和监管机构而言则是个「黑箱」——不知如何运作,也不知它给出的结果是否公正。
虽然并非所有人工智能系统都是黑盒,AI 也并不比传统形式的软件更加不可解释,但在人工智能模型复杂度直线上升的今天,问题正在逐渐变得明显,AI 越来越先进,我们面临的挑战也越来越大。
人们一直在各个方向上,为 AI 技术的可解释性而努力着。
2010 年,吴恩达等人在 Google AI 发表的「识别猫」研究中,神经网络通过样本学习理解了猫的概念,通过特征可视化方法我们可以看到算法学习的结果。
近年来,各国面对人工智能技术落地的政策着重强调了保护隐私和可解释性。2018 年 5 月,有「史上最严格的隐私和数据保护法」之称的欧盟《通用数据保护条例》(GDPR)正式生效。该法案被称为是 20 年来数据隐私条例的最重要变化,同时,有关「算法公平性」的条款要求所有公司必须对其算法的自动决策进行解释。
在我国,去年 8 月通过的《个人信息保护法》第 24 条也明确要求必须确保自动化决策的透明度和结果公正。
如何才能让人工智能在带来便利的同时保证可解释性?这意味着我们需要构建起可信的 AI 体系。在业界看来,在 AI 技术应用时考虑可解释性,需要考虑公平性并消除偏见,减小模型漂移,实行风险管理,在模型部署的全生命周期进行持续监控,最终形成的工具体系需要在多种不同硬件环境下部署。
可解释 AI 并非算法模型中某个独立的环节或具体工具,要想构建可解释 AI,就需要在 AI 模型整个生命周期的每个步骤持续介入,在每个环节都构建不同的可解释方法。近几年来,众多科技企业纷纷加大投入,构建了各种可解释 AI 相关工具和服务。
在 AI 模型构建的数据准备阶段,微软提出了 Datasheets for Datasets,用于记录数据集的创建、组成、预期用途、维护等属性,关注数据集是否存在偏见。
而谷歌提出的 Model Cards 工具包则主要关注模型的部署和监控环节,可报告机器学习模型的出处、效果和道德信息评估,对算法本身的表现提供解释。
国内的互联网企业也在采取行动。比如,美团在去年 9 月发布文章,公开了关于配送时间的四种评估算法,介绍了预估送达时间背后的算法逻辑。
从机制上来看,业内实现算法可解释的主流方式有「事前可解释性」(Ante-hoc)和「事后可解释性」(Post-hoc)两种。顾名思义,前者使用的算法结构相对简单,可以通过观察模型本身来理解模型的决策过程,又可称之为「内在可解释模型」。事后可解释方法则是给定训练好的模型及数据,尝试理解模型预测的原理。目前业界流行的大部分 AI 可解释机制属于事后可解释的范畴。
人工智能技术发展到现在,人们大多数时间都在性能上应用上作努力,如今对于可解释 AI 的研究可以说才刚刚开始。我们不能为了追求效率忽视 AI 系统的公平性和透明度,也不应该完全反过来,对新技术简单持不接受态度。
1 月 11 日,在腾讯举行的科技向善创新周活动中,腾讯研究院、腾讯天衍实验室、腾讯优图、Tencent AI Lab 等机构联合完成的《可解释 AI 发展报告 2022——打开算法黑箱的理念与实践》正式发布。
该报告用超过三万字的篇幅,对于可解释 AI 的现状进行了概述,展望了这一领域的发展趋势。此外,该报告对可解释 AI 未来的方向提出了一些看法。
从 1 月 17 日起,该报告可在腾讯研究院的微信公众号下载。
报告链接(或点击文末「阅读原文」):https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu
报告指出,在不同的领域,面对不同的对象,人工智能解释的深浅与目标都存在区别。在对于 AI 可解释性要求相对较高的医疗、教育、金融、自动驾驶等领域中,存在不同的解释方法;另一方面,对于监管、终端用户和开发者来说,对于可解释性的需求也各不相同。这意味着可解释 AI 是一个庞杂的领域,需要业界和学界共同努力,构建一个完整的体系。
同时,对 AI 应用系统的透明性与可解释性要求,需要考虑效率、安全、隐私、网络安全、知识产权保护等目的平衡,界定不同场景的最小可接受标准,必要时采取常规监测、人工审核等机制,不应仅限于算法的可解释性。
来自业界、学界的专家均对《可解释 AI 发展报告 2022》的发布表示欢迎:
「可解释的 AI 好比一个老师在大学里面教课——我们需要注意跟学生的互动,讲的东西学生得听懂,听了得有受益。这就需要我们和学生之间有更多的了解,」微众银行首席人工智能官杨强说道。「人工智能不是孤立存在的,它必须在和人互动的情况下才能产生效果。这份报告开了一个好头,在这个基础上我们可以展开长期的研究。」
除了行业研究,腾讯近年来也在可解释 AI 技术方面有了诸多成果。
自 2014 年起,深度学习技术发生了巨大的进步,识别准确率从 96.3% 提升到了 99.5%,直接促成了人脸识别技术的实用化。最近疫情期间,需要用到人脸识别做身份验证的场景越来越多。在腾讯支持的健康码上,一年累计亮码次数已超过 240 亿次。
腾讯优图实验室在人脸识别任务中构建了非监督的训练方式。在验证交互过程中对图片的选择进行了优化。在特征层面上,算法又引入了冯 · 米塞斯分布来对人脸特征进行建模,将模型学到的特征表示为概率分布,在图像识别的过程中,AI 除了输出相似度之外,还可以输出自信度,为人们提供了额外的解释。
腾讯觅影《肺炎 CT 影像辅助分诊及评估软件》是腾讯首款获得国家药品监督管理局第三类医疗器械注册证的辅助诊断软件产品。其可用于肺部 CT 影像的显示、处理、测量和肺炎病灶识别,并不单独给出对患者的诊断意见,而是采取与人类医生结合的方式进行诊断。
这种方式大幅提高了医生的工作效率,针对 AI 技术人员则满足全局可解释性。
腾讯天衍可信可解释疾病风险预测模型,其中绿色箭头表示增强主要输出可解释性的辅助输出。
此外,软件研究资料中对于训练及测试数据的来源、数量、多维分布进行了详尽分析,可帮助开发者和用户理解模型特性,消除因数据偏移而导致模型输出结果问题的疑虑。
可解释 AI 是一个新兴的研究领域,现在还缺乏统一的理论框架和技术路线。我们现在也很难找到准确率很高,同时可解释性极好的算法。更多的时候,我们需要进行效率与可解释性之间的选择。
从技术的角度看,深度学习可解释性的矛盾就像 20 世纪初物理学中的「乌云」,反映了人们对于新发现事物理解的缺失。在这些方向的研究对于技术进步将会起到巨大的推动作用。从方法上,研究人员正在通过理论和实验两条道路试图理解算法运作的机制。
而在实践过程中,我们需要注意到这一问题是多元性的:针对不同的算法、不同的领域和不同的受众需要有不同的标准。
「可解释性就像物理学定义的边界函数——当我们进行优化时,总要定义一个边界的共识。可解释就是既要对方理解,又要它的性能高,这是一件非常难的事。」杨强表示,「我认为这会是一个长期存在的问题。解决方法或许是在一个细分领域里,根据领域知识来给予回答,为我们指明方向,进而逐渐推广。」
随着技术的进步和制度的完善,期待在不久的将来,我们能够建立起一套完整可信的可解释 AI 体系。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com