Deep neural networks are increasingly used in natural language processing (NLP) models. However, the need to interpret and explain the results from complex algorithms are limiting their widespread adoption in regulated industries such as banking. There has been recent work on interpretability of machine learning algorithms with structured data. But there are only limited techniques for NLP applications where the problem is more challenging due to the size of the vocabulary, high-dimensional nature, and the need to consider textual coherence and language structure. This paper develops a methodology to compute SHAP values for local explainability of CNN-based text classification models. The approach is also extended to compute global scores to assess the importance of features. The results are illustrated on sentiment analysis of Amazon Electronic Review data.


翻译:深神经网络越来越多地用于自然语言处理模式(NLP),然而,解释和解释复杂算法结果的必要性限制了在银行等受监管行业广泛采用这些算法,最近还开展了关于机器学习算法与结构化数据的解释性的工作,但对于NLP应用程序而言,由于词汇的大小、高维度性质以及需要考虑文字一致性和语言结构,问题更具有挑战性,因此只有有限的技术在NLP应用程序中存在。本文开发了一种计算SHAP值的方法,用于计算CNN的文本分类模型的本地可解释性。该方法还扩展至计算全球得分,以评估特征的重要性。结果在亚马逊电子审查数据的情绪分析中作了说明。

0
下载
关闭预览

相关内容

文本分类(Text Classification)任务是根据给定文档的内容或主题,自动分配预先定义的类别标签。
剑桥大学《数据科学: 原理与实践》课程,附PPT下载
专知会员服务
47+阅读 · 2021年1月20日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
0+阅读 · 2021年9月10日
Arxiv
7+阅读 · 2021年3月15日
Compression of Deep Learning Models for Text: A Survey
Arxiv
4+阅读 · 2019年4月17日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
25+阅读 · 2018年1月24日
VIP会员
相关资讯
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
AI可解释性文献列表
专知
42+阅读 · 2019年10月7日
LibRec 精选:基于参数共享的CNN-RNN混合模型
LibRec智能推荐
6+阅读 · 2019年3月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【CNN】一文读懂卷积神经网络CNN
产业智能官
18+阅读 · 2018年1月2日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
0+阅读 · 2021年9月10日
Arxiv
7+阅读 · 2021年3月15日
Compression of Deep Learning Models for Text: A Survey
Arxiv
4+阅读 · 2019年4月17日
Arxiv
12+阅读 · 2019年3月14日
Arxiv
19+阅读 · 2018年10月25日
Arxiv
11+阅读 · 2018年7月31日
Arxiv
25+阅读 · 2018年1月24日
Top
微信扫码咨询专知VIP会员