腾讯发布国内首份《可解释AI发展报告 2022》:55页pdf详解打开算法黑箱的理念与实践|附报告下载

2022 年 1 月 19 日 专知

来源:  腾讯研究院
随着各界对 AI 伦理的日益重视,AI 系统的可解释性也逐渐成为热点,甚至上升到立法和监管的要求。 许多人工智能领域的专家都把 2021 年视为“ AI 可解释元年 ”,在这一年,不仅政府出台相应的监管要求,国内外许多科技公司,譬如谷歌、微软、IBM、美团、微博、腾讯等,也都推出了相应的举措。  
在这一背景下,腾讯研究院、腾讯天衍实验室、腾讯优图实验室、腾讯 AI Lab 等组成的跨学科研究团队,历时近一年,完成业内首份 《可解释AI发展报告 2022——打开算法黑箱的理念与实践》 ,全面梳理可解释AI的概念、监管政策、发展趋势、行业实践,并提出未来发展建议。
在 1 月 11 日线上举办的腾讯科技向善创新周“透明可解释 AI 论坛”上,由腾讯研究院秘书长张钦坤、腾讯优图实验室人脸技术负责人丁守鸿进行了发布。 
学界和业界专家普遍认为,《可解释AI发展报告 2022》非常必要,也非常及时。这份报告开了个好头,推动人工智能向着可解释这个极为重要的方向发展。
透明性与可解释性,连同公平性评价、安全考虑、人类 AI 协作、责任框架,都是 AI 领域的基本问题。我们需要找到一个平衡的可解释 AI 的路径,来打造可信、负责任 AI,确保科技向善。具体来说,在设计可解释性要求时,需要考虑可解释性要求和其他重要的伦理价值和目的 (诸如公平、安全、隐私、网络安全等) 之间的平衡。因为可解释性本身不是目的,而是实现其他目的的手段。所以在设计可解释性要求时,首先需要考虑想要实现什么目标,其次需要思考在特定情境下如何更好地匹配这些目标。
第一,立法和监管宜遵循基于风险的分级分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点 。首先,披露 AI 算法模型的源代码是无效的方式,不仅无助于对 AI 算法模型的理解,反倒可能威胁数据隐私、商业秘密以及技术安全;其次,不宜不加区分应用场景与时空场合地要求对所有的算法决策结果进行解释;再次,侧重应用过程中的披露义务;最后,避免强制要求披露用来训练AI模型的数据集,这不仅不具有可操作性,而且容易与版权保护冲突,侵犯用户的数据隐私或违反合同义务。 
第二,探索建立适应不同行业与场景的可解释性标准。 具体可以从三个方面来着手:一是针对 AI 系统的一些示范性应用场景提供可解释性标准的指南,给行业和企业带来有益参考;二是发布 AI 可解释最佳实践做法案例集、负面做法都是值得尝试的,包括用以提供解释的有效的用户界面,面向专家和审计人员的记录机制(例如详细的性能特征,潜在用途,系统局限性等);三是创建一个说明不同级别的可解释性的图谱,这个图谱可被用来给不同行业与应用场景提供最小可接受的衡量标准。
第三,探索可解释的替代性机制,多举措共同实现可信、负责任 AI。 虽然可解释性是完善 AI 技术的最优解之一,但并非所有的AI系统及其决策都可以解释。当 AI 系统过于复杂,导致难以满足可解释性要求,或是导致解释机制失灵、效果不乐观时,就要积极转变规制的思路,探索更多元化、实用化的技术路径。目前在技术上主张的是采取适当的替代性机制,如第三方标记反馈、用户申诉和人工审查、常规监测、审计等,这些替代性机制可以对 AI 算法的决策起到监督和保障作用。
第四,增强算法伦理素养,探索人机协同的智能范式。 开发者和使用者是 AI 生态的核心参与者,需要提升他们的算法伦理素养。一方面,加强科技伦理教育,提升 AI 从业人员的算法伦理素养;另一方面,通过教育、新闻报道、揭秘等方式提高公众的算法素养,构建和谐的人机协同关系。
最后,引导、支持行业加强可解释 AI 研究与落地。 由于 AI 技术的快速发展迭代,可解释 AI 的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量 (market force) 会激励可解释性与可复制性,会驱动可解释 AI 的发展进步。企业为维持自身的市场竞争力,会主动提高其 AI 相关产品服务的可解释程度。
长远来看,政府、社会、企业、行业、科研机构、用户等主体需要共同探索科学合理的可解释 AI 落地方案及相关的保障与防护机制,推动科技向善。



专知便捷查看

便捷下载,请关注专知公众号(点击上方蓝色专知关注)

  • 后台回复“XAI2022” 就可以获取可解释AI发展报告 2022》专知下载链接


专知,专业可信的人工智能知识分发 ,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!


欢迎微信扫一扫加入专知人工智能知识星球群,获取最新AI专业干货知识教程资料和与专家交流咨询
点击“ 阅读原文 ”,了解使用 专知 ,查看获取70000+AI主题知识资源
登录查看更多
1

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
【AI与工业】2022最新发布《工业物联网AI框架》59页PDF
专知会员服务
141+阅读 · 2022年3月30日
腾讯等发布《2022产业互联网安全十大趋势》报告,34页pdf
报告 |《数字碳中和白皮书》(附下载)
专知会员服务
89+阅读 · 2021年12月31日
商汤科技再发《AI可持续发展报告》白皮书
专知会员服务
50+阅读 · 2021年11月16日
人工智能AI中台白皮书(2021年),45页pdf
专知会员服务
280+阅读 · 2021年9月18日
专知会员服务
74+阅读 · 2021年6月7日
专知会员服务
93+阅读 · 2021年5月17日
专知会员服务
119+阅读 · 2021年3月11日
腾讯发布2020《腾讯人工智能白皮书:泛在智能》,46页pdf
专知会员服务
130+阅读 · 2020年7月14日
商汤科技再发《AI可持续发展报告》白皮书
区块链技术前沿报告,32页pdf
专知
4+阅读 · 2021年3月11日
打开全新腾讯小微,撩一下微信AI
微信AI
0+阅读 · 2020年11月11日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
28+阅读 · 2021年9月26日
Arxiv
21+阅读 · 2019年8月21日
VIP会员
相关VIP内容
【AI与工业】2022最新发布《工业物联网AI框架》59页PDF
专知会员服务
141+阅读 · 2022年3月30日
腾讯等发布《2022产业互联网安全十大趋势》报告,34页pdf
报告 |《数字碳中和白皮书》(附下载)
专知会员服务
89+阅读 · 2021年12月31日
商汤科技再发《AI可持续发展报告》白皮书
专知会员服务
50+阅读 · 2021年11月16日
人工智能AI中台白皮书(2021年),45页pdf
专知会员服务
280+阅读 · 2021年9月18日
专知会员服务
74+阅读 · 2021年6月7日
专知会员服务
93+阅读 · 2021年5月17日
专知会员服务
119+阅读 · 2021年3月11日
腾讯发布2020《腾讯人工智能白皮书:泛在智能》,46页pdf
专知会员服务
130+阅读 · 2020年7月14日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员