When prompted to think step-by-step, language models (LMs) produce a chain of thought (CoT), a sequence of reasoning steps that the model supposedly used to produce its prediction. Despite much work on CoT prompting, it is unclear if reasoning verbalized in a CoT is faithful to the models' parametric beliefs. We introduce a framework for measuring parametric faithfulness of generated reasoning, and propose Faithfulness by Unlearning Reasoning steps (FUR), an instance of this framework. FUR erases information contained in reasoning steps from model parameters, and measures faithfulness as the resulting effect on the model's prediction. Our experiments with four LMs and five multi-hop multi-choice question answering (MCQA) datasets show that FUR is frequently able to precisely change the underlying models' prediction for a given instance by unlearning key steps, indicating when a CoT is parametrically faithful. Further analysis shows that CoTs generated by models post-unlearning support different answers, hinting at a deeper effect of unlearning.


翻译:当被提示逐步思考时,语言模型(LMs)会生成思维链(CoT),即模型据称用于生成预测的一系列推理步骤。尽管关于CoT提示已有大量研究,但尚不清楚CoT中言语化的推理是否忠实于模型的参数化信念。我们提出了一个衡量生成推理的参数化忠实度的框架,并提出了遗忘推理步骤的忠实度测量方法(FUR),作为该框架的一个实例。FUR从模型参数中抹除推理步骤所包含的信息,并通过由此对模型预测产生的影响来度量忠实度。我们在四个语言模型和五个多跳多选问答(MCQA)数据集上的实验表明,FUR通常能够通过遗忘关键步骤来精确改变底层模型对给定实例的预测,从而指示CoT何时具有参数化忠实性。进一步分析显示,经过遗忘后模型生成的CoT支持不同的答案,暗示了遗忘具有更深层的影响。

0
下载
关闭预览

相关内容

【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
20+阅读 · 2021年12月21日
专知会员服务
36+阅读 · 2021年8月17日
专知会员服务
52+阅读 · 2021年8月13日
专知会员服务
44+阅读 · 2021年7月1日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【AAAI2022】通过多任务学习改进证据深度学习
专知会员服务
20+阅读 · 2021年12月21日
专知会员服务
36+阅读 · 2021年8月17日
专知会员服务
52+阅读 · 2021年8月13日
专知会员服务
44+阅读 · 2021年7月1日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员