Time is an important dimension in our physical world. Lots of facts can evolve with respect to time. For example, the U.S. President might change every four years. Therefore, it is important to consider the time dimension and empower the existing QA models to reason over time. However, the existing QA datasets contain rather few time-sensitive questions, hence not suitable for diagnosing or benchmarking the model's temporal reasoning capability. In order to promote research in this direction, we propose to construct a time-sensitive QA dataset. The dataset is constructed by 1) mining time-evolving facts from WikiData and align them to their corresponding Wikipedia page, 2) employing crowd workers to verify and calibrate these noisy facts, 3) generating question-answer pairs based on the annotated time-sensitive facts. Our dataset poses two novel challenges: 1) the model needs to understand both explicit and implicit mention of time information in the long document, 2) the model needs to perform temporal reasoning like comparison, addition, subtraction. We evaluate different SoTA long-document QA systems like BigBird and FiD on our dataset. The best-performing model FiD can only achieve 46\% accuracy, still far behind the human performance of 87\%. We demonstrate that these models are still lacking the ability to perform robust temporal understanding and reasoning. Therefore, we believe that our dataset could serve as a benchmark to empower future studies in temporal reasoning. The dataset and code are released in~\url{https://github.com/wenhuchen/Time-Sensitive-QA}.


翻译:时间是我们物理世界的一个重要维度。 许多事实都可以在时间上演变。 例如, 美国总统可能每四年改变一次。 因此, 重要的是要考虑时间维基数据, 并赋予现有的质量评估模型在一段时间里能够理解的时间维度。 然而, 现有的质量评估数据集包含的时间敏感问题很少, 因而不适于对模型的时间推理能力进行诊断或基准化。 为了促进这方面的研究, 我们提议构建一个时间敏感的QA数据集。 数据集的构建方式是:1) 从维基数据中挖掘时间变化的事实, 并把它们与相应的维基百科页面相匹配。 因此, 重要的是要考虑时间维基数据维度, 并赋予现有质量评估模型的能力。 我们的模型需要理解明确和隐含的时间信息, 2) 模型需要进行时间推理, 如比较、 补充、 减值。 我们评估不同的 SoTA 长期文件系统, 如BikiD 和 FiD 等, 来核查和校准这些噪音的事实事实, 3⁄a 显示我们数据的精确性。 我们最强的模型可以证明, 人类的精确性模型可以证明我们的数据。

0
下载
关闭预览

相关内容

【AAAI2021】维基百科检索跳转来回答复杂的问题
专知会员服务
14+阅读 · 2021年1月5日
【反馈循环自编码器】FEEDBACK RECURRENT AUTOENCODER
专知会员服务
22+阅读 · 2020年1月28日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
【文本匹配】Question Answering论文
深度学习自然语言处理
8+阅读 · 2020年4月20日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
论文浅尝 | Question Answering over Freebase
开放知识图谱
18+阅读 · 2018年1月9日
Arxiv
3+阅读 · 2018年11月29日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
VIP会员
相关VIP内容
相关资讯
Top
微信扫码咨询专知VIP会员