机器学习,更具体地说,深度学习,在过去的十年中吸引了媒体和更多公众的关注,因为它有可能彻底改变行业、公共服务和社会。深度学习在图像识别、语音和语言翻译等不同的挑战性问题上取得了甚至超越了人类专家的表现。然而,深度学习模型通常被定性为一个 "黑盒",因为这些模型由数百万个参数组成,专家极难解释。复杂的 "黑盒"模型很容易愚弄无法检查算法决策的用户,这可能导致危险或灾难性的事件。因此,可审计的可解释的人工智能方法对于开发安全系统、遵守法规和在社会中接受这种新技术至关重要。这篇论文试图回答以下研究问题。是否有可能提供一种与深度学习相比具有性能,同时具有透明结构(非黑盒)的方法?为此,它引入了一个新颖的可解释设计的深度学习架构框架,该框架提供了透明度和高精确度,帮助人类理解为什么达成了一个特定的机器决策,以及它是否值得信任。此外,所提出的基于原型的框架有一个灵活的结构,可以在无监督的情况下检测新的类别和情况。论文中提出的方法已被应用于多个用例,包括图像分类、公平性、深度递归学习解释和新颖性检测。

成为VIP会员查看完整内容
50

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
《可解释深度学习:指南》2022亚马逊等68页论文
专知会员服务
60+阅读 · 2022年10月31日
专知会员服务
48+阅读 · 2021年9月5日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
130+阅读 · 2020年11月19日
46页pdf, 165篇文献 | 图的可解释性
图与推荐
3+阅读 · 2022年10月25日
理解人类推理的深度学习
论智
19+阅读 · 2018年11月7日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月10日
A Survey of Large Language Models
Arxiv
458+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
22+阅读 · 2018年8月30日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2008年12月31日
相关论文
Arxiv
0+阅读 · 2023年5月10日
A Survey of Large Language Models
Arxiv
458+阅读 · 2023年3月31日
Arxiv
76+阅读 · 2023年3月26日
已删除
Arxiv
32+阅读 · 2020年3月23日
Arxiv
22+阅读 · 2018年8月30日
A Survey on Deep Transfer Learning
Arxiv
11+阅读 · 2018年8月6日
微信扫码咨询专知VIP会员