Large language models (LMs) such as GPT-4 are very powerful and can process different kinds of natural language processing (NLP) tasks. However, it can be difficult to interpret the results due to the multi-layer nonlinear model structure and millions of parameters. Lack of understanding of how the model works can make the model unreliable and dangerous for everyday users in real-world scenarios. Most recent works exploit the weights of attention to provide explanations for model predictions. However, pure attention-based explanation is unable to support the growing complexity of the models, and cannot reason about their decision-making processes. Thus, we propose LMExplainer, a knowledge-enhanced interpretation module for language models that can provide human-understandable explanations. We use a knowledge graph (KG) and a graph attention neural network to extract the key decision signals of the LM. We further explore whether interpretation can also help AI understand the task better. Our experimental results show that LMExplainer outperforms existing LM+KG methods on CommonsenseQA and OpenBookQA. We also compare the explanation results with generated explanation methods and human-annotated results. The comparison shows our method can provide more comprehensive and clearer explanations. LMExplainer demonstrates the potential to enhance model performance and furnish explanations for the reasoning processes of models in natural language.


翻译:大型语言模型(LM)如 GPT-4 是非常强大的,可以处理不同类型的自然语言处理(NLP)任务。 但是,由于多层非线性模型结构和数百万个参数,很难解释结果。由于缺乏对模型工作原理的理解,这使得模型在现实世界的使用场景中变得不可靠和危险。最近的大多数工作利用注意力的权重来提供模型预测的解释。 但是,单纯的基于注意力的解释无法支持模型不断增长的复杂性,也不能推断出其决策过程。因此,我们提出了 LMExplainer,一种增强语言模型解释的知识解释器,可以提供人类可理解的解释。我们使用知识图和图注意力神经网络来提取 LM 的关键决策信号。 我们进一步探讨解释是否也有助于 AI 更好地理解任务。我们的实验结果显示,LMExplainer 在 CommonsenseQA 和 OpenBookQA 上的表现优于现有的 LM+KG 方法。 我们还将解释结果与生成的解释方法和人类注释结果进行了比较。比较显示,我们的方法可以提供更全面和更清晰的解释。LMExplainer 展示了增强模型性能和提供自然语言中模型推理过程解释的潜力。

0
下载
关闭预览

相关内容

任何机器学习模型的核心都有一个响应函数,它试图映射和解释独立(输入)变量和从属(目标或响应)变量之间的关系和模式。当模型预测或找到我们的见解时,需要做出某些决定和选择。模型解释试图理解和解释响应函数所做出的这些决策,即什么,为什么以及如何。模型解释的关键是透明度,质疑能力以及人类理解模型决策的难易程度。 解释性也通常被称为机器学习模型的人类可解释性解释(HII),是人类(包括非机器学习专家)能够理解模型在决策过程中所做出的选择的程度(如何,为什么和什么)。在比较模型时,除了模型性能之外,如果模型的决策比其他模型的决策更容易被人理解,那么模型被认为比其他模型具有更好的可解释性。
图神经网络可解释性,附45页ppt,Simone Scardapane讲授
专知会员服务
83+阅读 · 2022年7月16日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Arxiv
18+阅读 · 2020年10月9日
Domain Representation for Knowledge Graph Embedding
Arxiv
14+阅读 · 2019年9月11日
Arxiv
15+阅读 · 2018年4月5日
VIP会员
相关VIP内容
图神经网络可解释性,附45页ppt,Simone Scardapane讲授
专知会员服务
83+阅读 · 2022年7月16日
【AAAI2020知识图谱论文概述】Knowledge Graphs @ AAAI 2020
专知会员服务
133+阅读 · 2020年2月13日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员