深度神经网络一直在推动自然语言处理领域的发展,被认为是解决机器翻译、摘要和问答等复杂自然语言处理任务的事实建模方法。尽管深度神经网络的有效性得到了证实,但它们的不透明性是引起关注的主要原因。
在本教程中,我们将从两个角度介绍解释神经网络模型的细粒度组件的研究工作,一是内在分析,二是因果性分析。前者是一种方法来分析神经元关于一个理想的语言概念或任务。后者研究神经元和输入特征在解释模型决策中的作用。我们还将讨论解释方法和因果分析如何能够更好地解释模型预测。最后,我们将带您浏览各种工具包,这些工具包有助于细粒度解释和神经模型的原因分析。