Regenerating natural language explanations for science questions is a challenging task for evaluating complex multi-hop and abductive inference capabilities. In this setting, Transformers trained on human-annotated explanations achieve state-of-the-art performance when adopted as cross-encoder architectures. However, while much attention has been devoted to the quality of the constructed explanations, the problem of performing abductive inference at scale is still under-studied. As intrinsically not scalable, the cross-encoder architectural paradigm is not suitable for efficient multi-hop inference on massive facts banks. To maximise both accuracy and inference time, we propose a hybrid abductive solver that autoregressively combines a dense bi-encoder with a sparse model of explanatory power, computed leveraging explicit patterns in the explanations. Our experiments demonstrate that the proposed framework can achieve performance comparable with the state-of-the-art cross-encoder while being $\approx 50$ times faster and scalable to corpora of millions of facts. Moreover, we study the impact of the hybridisation on semantic drift and science question answering without additional training, showing that it boosts the quality of the explanations and contributes to improved downstream inference performance.


翻译:对科学问题进行自然语言的再生自然解释是评估复杂的多重机会和诱拐推断能力的一项艰巨任务。在这一背景下,受过人类附加说明解释培训的变异器在被采用为交叉编码结构时达到最先进的性能。然而,虽然人们已经非常关注所设计的解释质量,但规模化的绑架推断问题仍然研究不足。由于本质上无法伸缩,交叉编码建筑范式不适合在大量事实库中进行有效的多重机会推断。为了尽量提高准确性和推断时间,我们建议一种混合式的绑架解答器,自动递增地将密集的双编码与稀少的解释能力模型结合起来,计算解释中的明确模式。我们的实验表明,拟议的框架的性能可以与最先进的交叉编码相比,而其价值为50美元,而且对数百万事实库来说是可缩放的。此外,我们研究混合化对精度流和科学问题解释的影响,不需通过额外的培训来推动下游分析质量解释。我们实验表明,拟议框架的性能与最接近于最先进的交叉编码。

0
下载
关闭预览

相关内容

【普林斯顿大学-微软】加权元学习,Weighted Meta-Learning
专知会员服务
40+阅读 · 2020年3月25日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
60+阅读 · 2019年10月17日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
53+阅读 · 2019年9月29日
“CVPR 2020 接受论文列表 1470篇论文都在这了
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
二值多视角聚类:Binary Multi-View Clustering
我爱读PAMI
4+阅读 · 2018年6月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Arxiv
0+阅读 · 2021年9月27日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
6+阅读 · 2018年11月1日
Arxiv
5+阅读 · 2017年11月30日
VIP会员
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
15+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
二值多视角聚类:Binary Multi-View Clustering
我爱读PAMI
4+阅读 · 2018年6月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Top
微信扫码咨询专知VIP会员