解释一直是交流的一部分,人类使用语言来阐明彼此并传递关于事件机制的信息。已有众多研究探讨了解释的结构及其对人类的实用性。

同时,解释涉及自然语言处理(以及更广泛的计算机视觉和机器学习)中的一系列研究方向,研究人员开发计算方法来解释(通常是深度神经网络)模型。解释性研究受到了越来越多的关注。

近几个月来,大语言模型(LLMs)的进步提供了前所未有的机会来利用其推理能力,既可以作为生成解释的工具,也可以作为解释分析的对象。另一方面,LLMs的巨大规模和不透明性质对解释方法提出了挑战。在本教程中,我们旨在回顾LLMs时代解释的这些机会和挑战,连接之前由不同研究组研究的一些内容,并希望能激发新的研究方向的思考。

https://explanation-llm.github.io/

成为VIP会员查看完整内容
30

相关内容

广义上的可解释性指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息,也就是说一个人能够持续预测模型结果的程度。按照可解释性方法进行的过程进行划分的话,大概可以划分为三个大类: 在建模之前的可解释性方法,建立本身具备可解释性的模型,在建模之后使用可解释性方法对模型作出解释。
【2023新书】向量语义,281页pdf
专知会员服务
99+阅读 · 2023年6月2日
专知会员服务
140+阅读 · 2021年8月12日
【SIGIR2021】自然语言处理图深度学习,230页ppt
专知会员服务
93+阅读 · 2021年7月23日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【ECAI2020】可扩展深度学习: 理论与算法,120页ppt
专知会员服务
27+阅读 · 2020年9月25日
【硬核书】数据科学,282页pdf
专知
21+阅读 · 2022年11月29日
【干货书】计算机科学离散数学,627页pdf
专知
54+阅读 · 2020年8月31日
【KDD2020】图神经网络:基础与应用,322页ppt
多模态深度学习综述,18页pdf
专知
46+阅读 · 2020年3月29日
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Arxiv
142+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
349+阅读 · 2023年3月31日
Arxiv
59+阅读 · 2023年3月26日
Arxiv
18+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【2023新书】向量语义,281页pdf
专知会员服务
99+阅读 · 2023年6月2日
专知会员服务
140+阅读 · 2021年8月12日
【SIGIR2021】自然语言处理图深度学习,230页ppt
专知会员服务
93+阅读 · 2021年7月23日
【NAACL2021】Graph4NLP:图深度学习自然语言处理,附239页ppt
专知会员服务
105+阅读 · 2021年6月12日
【ECAI2020】可扩展深度学习: 理论与算法,120页ppt
专知会员服务
27+阅读 · 2020年9月25日
相关基金
国家自然科学基金
9+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员