In order to address the increasing demands of real-world applications, the research for knowledge-intensive NLP (KI-NLP) should advance by capturing the challenges of a truly open-domain environment: web scale knowledge, lack of structure, inconsistent quality, and noise. To this end, we propose a new setup for evaluating existing KI-NLP tasks in which we generalize the background corpus to a universal web snapshot. We repurpose KILT, a standard KI-NLP benchmark initially developed for Wikipedia, and ask systems to use a subset of CCNet - the Sphere corpus - as a knowledge source. In contrast to Wikipedia, Sphere is orders of magnitude larger and better reflects the full diversity of knowledge on the Internet. We find that despite potential gaps of coverage, challenges of scale, lack of structure and lower quality, retrieval from Sphere enables a state-of-the-art retrieve-and-read system to match and even outperform Wikipedia-based models on several KILT tasks - even if we aggressively filter content that looks like Wikipedia. We also observe that while a single dense passage index over Wikipedia can outperform a sparse BM25 version, on Sphere this is not yet possible. To facilitate further research into this area, and minimise the community's reliance on proprietary black box search engines, we will share our indices, evaluation metrics and infrastructure.


翻译:为了应对现实世界应用中日益增加的需求,知识密集型NLP(KI-NLP)的研究应该通过抓住真正开放的环境的挑战来推进:网络规模知识、缺乏结构、质量不一致和噪音。为此,我们提议为评估现有的KI-NLP任务建立一个新的设置,我们在这个设置中将背景材料推广到通用网络快照中。我们重新使用KILT,即最初为维基百科开发的KI-NLP标准基准,并要求各系统使用CCNet的一个子集——Sphere Pasy(Sphere)作为知识来源。与维基百科不同,Sphere是规模更大的,更好地反映了互联网知识的充分多样性。我们发现,尽管覆盖面存在潜在的缺口、规模挑战、结构缺乏和质量较低,从Spherere(Sphere)检索能够使最新的最新检索和阅读系统匹配甚至超越以维基百科为基础的模式,即使我们像维基百科那样的过滤器内容。我们还注意到,在维基百科的单一的密集通过指数的同时,在网上的单个通过指数可以进一步搜索,但Sprestimbre Stamp Stamp Streal Stabilital Stapital Stapital Stapital shabre Stapital shabrest we best werest we best we be srest finds werest tost first shaprestitititititital bestititital shapre shapre shaprest shabrest shabilital best shabrest ress ress ress ressbre ressbre ress ress shabred wervibre ressbre ress ress ress ress ress ress ress ress ressmdslupdsbbbbal comp ress restipal ress ressbal ress ress ress ress。

0
下载
关闭预览

相关内容

【AACL2020】自监督学习的自然语言处理
专知会员服务
51+阅读 · 2020年12月12日
最新《自动微分》综述教程,71页ppt
专知会员服务
21+阅读 · 2020年11月22日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【资源】问答阅读理解资源列表
专知
3+阅读 · 2020年7月25日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Directions for Explainable Knowledge-Enabled Systems
Arxiv
26+阅读 · 2020年3月17日
Neural Approaches to Conversational AI
Arxiv
8+阅读 · 2018年12月13日
Arxiv
3+阅读 · 2018年4月3日
VIP会员
相关VIP内容
【AACL2020】自监督学习的自然语言处理
专知会员服务
51+阅读 · 2020年12月12日
最新《自动微分》综述教程,71页ppt
专知会员服务
21+阅读 · 2020年11月22日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
强化学习最新教程,17页pdf
专知会员服务
167+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
相关资讯
【资源】问答阅读理解资源列表
专知
3+阅读 · 2020年7月25日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
39页《迁移学习自然语言生成》PPT
专知
9+阅读 · 2019年2月13日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
Top
微信扫码咨询专知VIP会员