题目: Towards Hierarchical Importance Attribution:explaining compositional semantics for Neural Sequence Models

摘要:

深度神经网络在处理复杂的自然语言语义方面取得了令人印象深刻的成绩,但大多数情况下被当作黑匣子。为了解释该模型如何处理单词和短语的组合语义,我们研究了层次解释问题。我们强调的关键挑战是计算非附加和上下文无关的单个单词和短语的重要性。我们展示了之前在层次解释上的一些努力,例如上下文分解,在数学上不能满足期望的属性,导致不同模型的解释质量不一致。在本文中,我们提出了一种形式化的方法来量化每个词或短语的重要性,从而产生层次解释。我们根据我们的公式修改了上下文分解算法,并提出了一个具有竞争性能的与模型无关的解释算法。对LSTM模型和对多个数据集的微调BERT Transformer模型进行人工评估和自动度量评估表明,我们的算法在层次解释方面明显优于先前的工作。我们展示了我们的算法有助于解释语义的组合性,提取分类规则,提高模型的人类可信度。

成为VIP会员查看完整内容
9

相关内容

论文浅尝 | 基于深度序列模型的知识图谱补全
开放知识图谱
29+阅读 · 2019年5月19日
论文浅尝 | 基于属性嵌入的知识图谱间实体对齐方法
开放知识图谱
30+阅读 · 2019年3月26日
论文浅尝 | 推荐系统的可解释性浅谈
开放知识图谱
15+阅读 · 2018年11月27日
用于神经网络机器翻译的全并行文本生成
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
Arxiv
6+阅读 · 2018年10月3日
Arxiv
9+阅读 · 2018年5月24日
Arxiv
5+阅读 · 2018年5月10日
Arxiv
22+阅读 · 2018年2月14日
VIP会员
相关VIP内容
相关资讯
论文浅尝 | 基于深度序列模型的知识图谱补全
开放知识图谱
29+阅读 · 2019年5月19日
论文浅尝 | 基于属性嵌入的知识图谱间实体对齐方法
开放知识图谱
30+阅读 · 2019年3月26日
论文浅尝 | 推荐系统的可解释性浅谈
开放知识图谱
15+阅读 · 2018年11月27日
用于神经网络机器翻译的全并行文本生成
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
神经网络机器翻译原理:LSTM、seq2seq到Zero-Shot
北京思腾合力科技有限公司
11+阅读 · 2017年8月10日
微信扫码咨询专知VIP会员