随着深度神经网络在机器学习的各个领域获得广泛成功, 其自身所存在的问题也日益尖锐和突出, 例如可解释性差、鲁棒性弱和模型训练难度大等. 这些问题严重影响了神经网络模型的安全性和易用性. 因此, 神经网络的可解释性受到了大量的关注, 而利用模型可解释性改进和优化模型的性能也成为研究热点之一. 在本文中, 我们通过几何中流形的观点来理解深度神经网络的可解释性, 在通过流形视角分析神经网络所遇到的问题的同时, 汇总了数种有效的改进和优化策略并对其加以解释. 最后, 本文对深度神经网络流形解释目前存在的挑战加以分析, 提出将来可能的发展方向, 并对今后的工作进行了展望.

https://www.sciengine.com/publisher/scp/journal/SSI/51/9/10.1360/SSI-2020-0169?slug=fulltext

成为VIP会员查看完整内容
22

相关内容

【博士论文】多视光场光线空间几何模型研究
专知会员服务
21+阅读 · 2021年12月6日
面向任务型的对话系统研究进展
专知会员服务
56+阅读 · 2021年11月17日
专知会员服务
126+阅读 · 2021年2月17日
专知会员服务
88+阅读 · 2021年1月17日
专知会员服务
80+阅读 · 2020年12月11日
专知会员服务
94+阅读 · 2020年12月8日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
机器学习的可解释性
专知会员服务
169+阅读 · 2020年8月27日
专知会员服务
218+阅读 · 2020年8月1日
深度学习可解释性研究进展
专知会员服务
93+阅读 · 2020年6月26日
深度学习模型可解释性的研究进展
专知
22+阅读 · 2020年8月1日
清华大学图神经网络综述:模型与应用
机器之心
72+阅读 · 2018年12月26日
生成对抗网络的研究进展与趋势
中国计算机学会
35+阅读 · 2018年11月14日
GFlowNet Foundations
Arxiv
9+阅读 · 2021年11月17日
GeomCA: Geometric Evaluation of Data Representations
Arxiv
11+阅读 · 2021年5月26日
Parsimonious Bayesian deep networks
Arxiv
5+阅读 · 2018年10月17日
Arxiv
6+阅读 · 2017年12月7日
VIP会员
相关VIP内容
【博士论文】多视光场光线空间几何模型研究
专知会员服务
21+阅读 · 2021年12月6日
面向任务型的对话系统研究进展
专知会员服务
56+阅读 · 2021年11月17日
专知会员服务
126+阅读 · 2021年2月17日
专知会员服务
88+阅读 · 2021年1月17日
专知会员服务
80+阅读 · 2020年12月11日
专知会员服务
94+阅读 · 2020年12月8日
最新《监督机器学习可解释性》2020大综述论文,74页pdf
专知会员服务
129+阅读 · 2020年11月19日
机器学习的可解释性
专知会员服务
169+阅读 · 2020年8月27日
专知会员服务
218+阅读 · 2020年8月1日
深度学习可解释性研究进展
专知会员服务
93+阅读 · 2020年6月26日
微信扫码咨询专知VIP会员