Most research on pseudo relevance feedback (PRF) has been done in vector space and probabilistic retrieval models. This paper shows that Transformer-based rerankers can also benefit from the extra context that PRF provides. It presents PGT, a graph-based Transformer that sparsifies attention between graph nodes to enable PRF while avoiding the high computational complexity of most Transformer architectures. Experiments show that PGT improves upon non-PRF Transformer reranker, and it is at least as accurate as Transformer PRF models that use full attention, but with lower computational costs.


翻译:多数关于假相关反馈的研究都是在矢量空间和概率检索模型中进行的。 本文显示,基于变换器的重置器也可以从PRF提供的附加环境中受益。 它展示了基于图形的变换器PGT, 该变换器在图形节点之间引起注意,使PRF能够避免大多数变换器结构的高度计算复杂性。 实验显示,PGT改进了非PRF变换器变换器的变换器,并且至少与使用充分关注但计算成本较低的变换器 PRF模型一样准确。

0
下载
关闭预览

相关内容

【AAAI2021】记忆门控循环网络
专知会员服务
50+阅读 · 2020年12月28日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
【新书】Python编程基础,669页pdf
专知会员服务
197+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Arxiv
15+阅读 · 2020年2月5日
Arxiv
23+阅读 · 2018年8月3日
VIP会员
相关VIP内容
【AAAI2021】记忆门控循环网络
专知会员服务
50+阅读 · 2020年12月28日
Transformer文本分类代码
专知会员服务
118+阅读 · 2020年2月3日
【新书】Python编程基础,669页pdf
专知会员服务
197+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
相关资讯
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
相关论文
Top
微信扫码咨询专知VIP会员