Pre-trained language models (PLMs) like BERT are being used for almost all language-related tasks, but interpreting their behavior still remains a significant challenge and many important questions remain largely unanswered. In this work, we re-purpose a sentence editing dataset, where faithful high-quality human rationales can be automatically extracted and compared with extracted model rationales, as a new testbed for interpretability. This enables us to conduct a systematic investigation on an array of questions regarding PLMs' interpretability, including the role of pre-training procedure, comparison of rationale extraction methods, and different layers in the PLM. The investigation generates new insights, for example, contrary to the common understanding, we find that attention weights correlate well with human rationales and work better than gradient-based saliency in extracting model rationales. Both the dataset and code are available at https://github.com/samuelstevens/sentence-editing-interpretability to facilitate future interpretability research.


翻译:在这项工作中,我们重新启用了句子编辑数据集,将忠实的高质量人的理由自动提取出来,并与提取的模型原理进行比较,作为解释性的新测试台。这使我们能够对有关PLM的可解释性的一系列问题进行系统调查,包括培训前程序的作用、理由提取方法的比较,以及PLM的不同层次。例如,调查产生了新的洞察力,例如,与共同的理解相反,我们发现,在提取模型原理时,注意力与人的理由和工作比基于梯度的显著原理都好。 https://github.com/samuelstevens/sentence-edit-eding-interpretyable都提供数据集和代码,以便利未来的可解释性研究。

0
下载
关闭预览

相关内容

专知会员服务
79+阅读 · 2021年7月3日
专知会员服务
52+阅读 · 2020年11月17日
知识驱动的视觉知识学习,以VQA视觉问答为例,31页ppt
专知会员服务
35+阅读 · 2020年9月25日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
VIP会员
Top
微信扫码咨询专知VIP会员