一个可以解释的AI(Explainable AI, 简称XAI)或透明的AI(Transparent AI),其行为可以被人类容易理解。它与机器学习中“ 黑匣子 ” 的概念形成鲜明对比,这意味着复杂算法运作的“可解释性”,即使他们的设计者也无法解释人工智能为什么会做出具体决定。 XAI可用于实现社会解释的权利。有些人声称透明度很少是免费提供的,并且在人工智能的“智能”和透明度之间经常存在权衡; 随着AI系统内部复杂性的增加,这些权衡预计会变得更大。解释AI决策的技术挑战有时被称为可解释性问题。另一个考虑因素是信息(信息过载),因此,完全透明可能并不总是可行或甚至不需要。提供的信息量应根据利益相关者与智能系统的交互情况而有所不同。 https://www.darpa.mil/program/explainable-artificial-intelligence

VIP内容

来源: 腾讯研究院

随着各界对 AI 伦理的日益重视,AI 系统的可解释性也逐渐成为热点,甚至上升到立法和监管的要求。许多人工智能领域的专家都把 2021 年视为“AI 可解释元年”,在这一年,不仅政府出台相应的监管要求,国内外许多科技公司,譬如谷歌、微软、IBM、美团、微博、腾讯等,也都推出了相应的举措。 在这一背景下,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯 AI Lab 等组成的跨学科研究团队,历时近一年,完成业内首份《可解释AI发展报告 2022——打开算法黑箱的理念与实践》,全面梳理可解释AI的概念、监管政策、发展趋势、行业实践,并提出未来发展建议。

在 1 月 11 日线上举办的腾讯科技向善创新周“透明可解释 AI 论坛”上,由腾讯研究院秘书长张钦坤、腾讯优图实验室人脸技术负责人丁守鸿进行了发布。

学界和业界专家普遍认为,《可解释AI发展报告 2022》非常必要,也非常及时。这份报告开了个好头,推动人工智能向着可解释这个极为重要的方向发展。

透明性与可解释性,连同公平性评价、安全考虑、人类 AI 协作、责任框架,都是 AI 领域的基本问题。我们需要找到一个平衡的可解释 AI 的路径,来打造可信、负责任 AI,确保科技向善。具体来说,在设计可解释性要求时,需要考虑可解释性要求和其他重要的伦理价值和目的(诸如公平、安全、隐私、网络安全等)之间的平衡。因为可解释性本身不是目的,而是实现其他目的的手段。所以在设计可解释性要求时,首先需要考虑想要实现什么目标,其次需要思考在特定情境下如何更好地匹配这些目标。 第一,立法和监管宜遵循基于风险的分级分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。首先,披露 AI 算法模型的源代码是无效的方式,不仅无助于对 AI 算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释;再次,侧重应用过程中的披露义务;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。

第二,探索建立适应不同行业与场景的可解释性标准。具体可以从三个方面来着手:一是针对 AI 系统的一些示范性应用场景提供可解释性标准的指南,给行业和企业带来有益参考;二是发布 AI 可解释最佳实践做法案例集、负面做法都是值得尝试的,包括用以提供解释的有效的用户界面,面向专家和审计人员的记录机制(例如详细的性能特征,潜在用途,系统局限性等);三是创建一个说明不同级别的可解释性的图谱,这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。

第三,探索可解释的替代性机制,多举措共同实现可信、负责任 AI。虽然可解释性是完善 AI 技术的最优解之一,但并非所有的AI系统及其决策都可以解释。当 AI 系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。目前在技术上主张的是采取适当的替代性机制,如第三方标记反馈、用户申诉和人工审查、常规监测、审计等,这些替代性机制可以对 AI 算法的决策起到监督和保障作用。

第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是 AI 生态的核心参与者,需要提升他们的算法伦理素养。一方面,加强科技伦理教育,提升 AI 从业人员的算法伦理素养;另一方面,通过教育、新闻报道、揭秘等方式提高公众的算法素养,构建和谐的人机协同关系。

最后,引导、支持行业加强可解释 AI 研究与落地。由于 AI 技术的快速发展迭代,可解释 AI 的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释 AI 的发展进步。企业为维持自身的市场竞争力,会主动提高其 AI 相关产品服务的可解释程度。

长远来看,政府、社会、企业、行业、科研机构、用户等主体需要共同探索科学合理的可解释 AI 落地方案及相关的保障与防护机制,推动科技向善。

成为VIP会员查看完整内容
0
73
Top
微信扫码咨询专知VIP会员