现代语言模型(LMs)展现出了强大的演绎推理(deductive reasoning)能力,然而标准化评估往往只关注推理结果的正确性,而忽视了类人推理中的一个关键方面——效率。 在真实世界的推理场景中,绝大部分可用信息都是无关的,而高效的演绎推理需要能够识别并忽略这些干扰信息。 我们提出了一个基于逻辑编程(logic programming)视角的框架,用于评估语言模型的推理效率。该框架引入了一种简洁的方法,用于将语言模型生成的自然语言证明(natural language proofs)与通过执行逻辑程序所得的最短证明(shortest proofs)进行对齐。模型的效率通过衡量其在推理过程中避免不必要推理步骤的能力来量化。 在实证研究中,我们构建了一个数学文字题(math word problems)数据集,并在其中注入不同数量、不同语义重叠程度的无关公理(irrelevant axioms)。结果表明,当前的语言模型在此类条件下的推理准确率显著下降——即使这些干扰最小且与领域语义一致——并且其生成的证明中经常出现绕行于无关推理的冗余步骤

成为VIP会员查看完整内容
2

相关内容

【CMU博士论文】面向目标的自主智能体推理
专知会员服务
24+阅读 · 9月11日
【TPAMI2023】视觉推理:从状态到转换
专知会员服务
37+阅读 · 2023年8月14日
【ACL2023教程】自然语言的复杂推理,240多页ppt
专知会员服务
55+阅读 · 2023年7月13日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
31+阅读 · 2022年10月17日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
Arxiv
172+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
487+阅读 · 2023年3月31日
Arxiv
80+阅读 · 2023年3月26日
Arxiv
177+阅读 · 2023年3月24日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关VIP内容
【CMU博士论文】面向目标的自主智能体推理
专知会员服务
24+阅读 · 9月11日
【TPAMI2023】视觉推理:从状态到转换
专知会员服务
37+阅读 · 2023年8月14日
【ACL2023教程】自然语言的复杂推理,240多页ppt
专知会员服务
55+阅读 · 2023年7月13日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
31+阅读 · 2022年10月17日
【AAAI2021】知识图谱增强的预训练模型的生成式常识推理
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
51+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
18+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员