Question Generation (QG) is fundamentally a simple syntactic transformation; however, many aspects of semantics influence what questions are good to form. We implement this observation by developing Syn-QG, a set of transparent syntactic rules leveraging universal dependencies, shallow semantic parsing, lexical resources, and custom rules which transform declarative sentences into question-answer pairs. We utilize PropBank argument descriptions and VerbNet state predicates to incorporate shallow semantic content, which helps generate questions of a descriptive nature and produce inferential and semantically richer questions than existing systems. In order to improve syntactic fluency and eliminate grammatically incorrect questions, we employ back-translation over the output of these syntactic rules. A set of crowd-sourced evaluations shows that our system can generate a larger number of highly grammatical and relevant questions than previous QG systems and that back-translation drastically improves grammaticality at a slight cost of generating irrelevant questions.


翻译:问题产生(QG)从根本上说是一种简单的合成转变;然而,语义学的许多方面影响着哪些问题是好的。我们通过开发Syn-QG来落实这一观察,Syn-QG是一套透明的合成规则,它利用普遍依赖、浅语义解析、词汇资源和习惯规则等手段,将宣示性句变成问答配对。我们利用PropBank的参数描述和VerbNet的前提将浅语义内容纳入其中,这有助于产生描述性的问题,并产生比现有系统更荒谬、更丰富的语义问题。为了改进合成性流利并消除不正确的语法问题,我们对这些拼写性规则的输出进行反译。一组众源评估表明,我们的系统可以产生比以往的QG系统更多的高语法和相关问题,而回译会大大改善语义性,以少量成本产生不相关的问题。

0
下载
关闭预览

相关内容

【知识图谱@EMNLP2020】Knowledge Graphs in NLP @ EMNLP 2020
专知会员服务
42+阅读 · 2020年11月22日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
IJCAI2020信息抽取相关论文合集
AINLP
6+阅读 · 2020年6月16日
【文本匹配】Question Answering论文
深度学习自然语言处理
8+阅读 · 2020年4月20日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Arxiv
4+阅读 · 2018年5月14日
Arxiv
3+阅读 · 2018年4月3日
Arxiv
7+阅读 · 2018年3月21日
VIP会员
相关VIP内容
【知识图谱@EMNLP2020】Knowledge Graphs in NLP @ EMNLP 2020
专知会员服务
42+阅读 · 2020年11月22日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
Top
微信扫码咨询专知VIP会员