Abductive and counterfactual reasoning, core abilities of everyday human cognition, require reasoning about what might have happened at time t, while conditioning on multiple contexts from the relative past and future. However, simultaneous incorporation of past and future contexts using generative language models (LMs) can be challenging, as they are trained either to condition only on the past context or to perform narrowly scoped text-infilling. In this paper, we propose DeLorean, a new unsupervised decoding algorithm that can flexibly incorporate both the past and future contexts using only off-the-shelf, left-to-right language models and no supervision. The key intuition of our algorithm is incorporating the future through back-propagation, during which, we only update the internal representation of the output while fixing the model parameters. By alternating between forward and backward propagation, DeLorean can decode the output representation that reflects both the left and right contexts. We demonstrate that our approach is general and applicable to two nonmonotonic reasoning tasks: abductive text generation and counterfactual story revision, where DeLorean outperforms a range of unsupervised and some supervised methods, based on automatic and human evaluation.


翻译:直率和反事实推理,即日常人类认知的核心能力,要求推理时间t 可能发生的情况,同时以相对过去和未来的多种背景为条件。然而,同时采用基因化语言模型(LMs)将过去和今后背景同时结合起来可能具有挑战性,因为经过培训后,它们只能以过去为条件,或者进行范围狭窄的文本填充。在本文中,我们提议DeLorian,这是一种新的未经监督的解码算法,它可以灵活地将过去和今后背景纳入其中,只使用现成的、左对右语言模型和没有监管。我们的算法的关键直觉是通过后演算法将未来纳入在内,在此期间,我们只能更新产出的内部表述,同时确定模型参数。通过前向和后向传播的交替,DeLorean可以解码反映左向和右侧环境的输出表示。我们证明我们的方法是通用的,适用于两种非运动推理任务:绑架文本生成和反事实故事修改,在DeLorian 的自动和监管方法的基础上,在不受监督和监督的情况下进行一系列的自动评估。

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
专知会员服务
312+阅读 · 2020年11月24日
注意力机制模型最新综述
专知会员服务
264+阅读 · 2019年10月20日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
23+阅读 · 2018年10月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
6+阅读 · 2020年12月8日
Arxiv
3+阅读 · 2015年11月29日
VIP会员
相关资讯
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
从Seq2seq到Attention模型到Self Attention(二)
量化投资与机器学习
23+阅读 · 2018年10月9日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【音乐】Attention
英语演讲视频每日一推
3+阅读 · 2017年8月22日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员