Abductive and counterfactual reasoning, core abilities of everyday human cognition, require reasoning about what might have happened at time t, while conditioning on multiple contexts from the relative past and future. However, simultaneous incorporation of past and future contexts using generative language models (LMs) can be challenging, as they are trained either to condition only on the past context or to perform narrowly scoped text-infilling. In this paper, we propose DeLorean, a new unsupervised decoding algorithm that can flexibly incorporate both the past and future contexts using only off-the-shelf, left-to-right language models and no supervision. The key intuition of our algorithm is incorporating the future through back-propagation, during which, we only update the internal representation of the output while fixing the model parameters. By alternating between forward and backward propagation, DeLorean can decode the output representation that reflects both the left and right contexts. We demonstrate that our approach is general and applicable to two nonmonotonic reasoning tasks: abductive text generation and counterfactual story revision, where DeLorean outperforms a range of unsupervised and some supervised methods, based on automatic and human evaluation.


翻译:直率和反事实推理,即日常人类认知的核心能力,要求推理时间t 可能发生的情况,同时以相对过去和未来的多种背景为条件。然而,同时采用基因化语言模型(LMs)将过去和今后背景同时结合起来可能具有挑战性,因为经过培训后,它们只能以过去为条件,或者进行范围狭窄的文本填充。在本文中,我们提议DeLorian,这是一种新的未经监督的解码算法,它可以灵活地将过去和今后背景纳入其中,只使用现成的、左对右语言模型和没有监管。我们的算法的关键直觉是通过后演算法将未来纳入在内,在此期间,我们只能更新产出的内部表述,同时确定模型参数。通过前向和后向传播的交替,DeLorean可以解码反映左向和右侧环境的输出表示。我们证明我们的方法是通用的,适用于两种非运动推理任务:绑架文本生成和反事实故事修改,在DeLorian 的自动和监管方法的基础上,在不受监督和监督的情况下进行一系列的自动评估。

0
下载
关闭预览

相关内容

知识图谱在可解释人工智能中的作用,附81页ppt
专知会员服务
137+阅读 · 2019年11月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
已删除
将门创投
4+阅读 · 2020年1月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Neural Module Networks for Reasoning over Text
Arxiv
9+阅读 · 2019年12月10日
Arxiv
3+阅读 · 2018年4月18日
VIP会员
相关VIP内容
知识图谱在可解释人工智能中的作用,附81页ppt
专知会员服务
137+阅读 · 2019年11月11日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
已删除
将门创投
4+阅读 · 2020年1月6日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Top
微信扫码咨询专知VIP会员