Generative commonsense reasoning requires machines to generate sentences describing an everyday scenario given several concepts, which has attracted much attention recently. However, existing models cannot perform as well as humans, since sentences they produce are often implausible and grammatically incorrect. In this paper, inspired by the process of humans creating sentences, we propose a novel Knowledge-enhanced Commonsense Generation framework, termed KGR^4, consisting of four stages: Retrieval, Retrospect, Refine, Rethink. Under this framework, we first perform retrieval to search for relevant sentences from external corpus as the prototypes. Then, we train the generator that either edits or copies these prototypes to generate candidate sentences, of which potential errors will be fixed by an autoencoder-based refiner. Finally, we select the output sentence from candidate sentences produced by generators with different hyper-parameters. Experimental results and in-depth analysis on the CommonGen benchmark strongly demonstrate the effectiveness of our framework. Particularly, KGR^4 obtains 33.56 SPICE points in the official leaderboard, outperforming the previously-reported best result by 2.49 SPICE points and achieving state-of-the-art performance.


翻译:引人入胜的常识推理要求机器生成描述日常生活情景的句子,这几个概念最近引起了人们的极大关注。然而,现有模型无法既发挥人类的作用,因为其产生的句子往往不可信,而且语法不正确。在本文中,在人造句子过程的启发下,我们提议了一个新型的“知识强化常识一代”框架,称为KGR4, 由四个阶段组成:检索、回溯、Refine、再思考。在这个框架内,我们首先进行检索,从外部实体中寻找相关句子,作为原型。然后,我们培训那些编辑或复制这些原型以产生候选句子的生成者,其中潜在的错误将由一个基于自动编码的精炼者来确定。最后,我们从不同超参数的发电机产生的候选句子中选择出一个输出句子。实验结果和对通用基准的深入分析有力地证明了我们框架的有效性。特别是, KGRGSQ4在官方领导板上获得了33.56 SPICE点,这比以前报告的最佳成绩成绩要高出2.49 SPIC。

0
下载
关闭预览

相关内容

专知会员服务
90+阅读 · 2021年6月29日
【Coling-2020】面向机器阅读理解的双向认知思维网络
专知会员服务
10+阅读 · 2021年2月12日
【AAAI2021】低资源医疗对话生成的图演化元学习
专知会员服务
48+阅读 · 2020年12月26日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
39+阅读 · 2020年11月20日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
158+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
已删除
将门创投
4+阅读 · 2018年6月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
18+阅读 · 2020年10月9日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Generating Fact Checking Explanations
Arxiv
9+阅读 · 2020年4月13日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
已删除
将门创投
4+阅读 · 2018年6月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员