Query expansion with pseudo-relevance feedback (PRF) is a powerful approach to enhance the effectiveness in information retrieval. Recently, with the rapid advance of deep learning techniques, neural text generation has achieved promising success in many natural language tasks. To leverage the strength of text generation for information retrieval, in this article, we propose a novel approach which effectively integrates text generation models into PRF-based query expansion. In particular, our approach generates augmented query terms via neural text generation models conditioned on both the initial query and pseudo-relevance feedback. Moreover, in order to train the generative model, we adopt the conditional generative adversarial nets (CGANs) and propose the PRF-CGAN method in which both the generator and the discriminator are conditioned on the pseudo-relevance feedback. We evaluate the performance of our approach on information retrieval tasks using two benchmark datasets. The experimental results show that our approach achieves comparable performance or outperforms traditional query expansion methods on both the retrieval and reranking tasks.


翻译:使用假相相关性反馈(PRF)的查询扩展是提高信息检索效力的有力方法。最近,随着深层学习技术的迅速发展,神经文字生成在许多自然语言任务中取得了大有希望的成功。为了利用文本生成的强度来检索信息,我们在本条中提出了一个新颖的方法,将文本生成模型有效地纳入基于PRF的查询扩展。特别是,我们的方法通过以初始查询和假相相关性反馈为条件的神经文本生成模型产生更多的查询条件。此外,为了培训基因化模型,我们采用了有条件的基因化对抗网(CGANs),并提出了PRF-CGAN方法,其中生成者和歧视者都以假相相关性反馈为条件。我们用两个基准数据集来评估信息检索任务的业绩。实验结果显示,我们的方法取得了相似的业绩,或者超越了在检索和重排位任务上的传统查询扩展方法。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
专知会员服务
37+阅读 · 2021年4月27日
最新《神经架构搜索NAS》教程,33页pdf
专知会员服务
26+阅读 · 2020年12月2日
【EMNLP2020】自然语言生成,Neural Language Generation
专知会员服务
38+阅读 · 2020年11月20日
【论文推荐】文本摘要简述
专知会员服务
68+阅读 · 2020年7月20日
专知会员服务
60+阅读 · 2020年3月19日
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
35+阅读 · 2020年2月27日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
已删除
将门创投
4+阅读 · 2018年11月20日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
Arxiv
3+阅读 · 2016年2月24日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员