Scientific claim verification is a unique challenge that is attracting increasing interest. The SCIVER shared task offers a benchmark scenario to test and compare claim verification approaches by participating teams and consists in three steps: relevant abstract selection, rationale selection and label prediction. In this paper, we present team QMUL-SDS's participation in the shared task. We propose an approach that performs scientific claim verification by doing binary classifications step-by-step. We trained a BioBERT-large classifier to select abstracts based on pairwise relevance assessments for each <claim, title of the abstract> and continued to train it to select rationales out of each retrieved abstract based on <claim, sentence>. We then propose a two-step setting for label prediction, i.e. first predicting "NOT_ENOUGH_INFO" or "ENOUGH_INFO", then label those marked as "ENOUGH_INFO" as either "SUPPORT" or "CONTRADICT". Compared to the baseline system, we achieve substantial improvements on the dev set. As a result, our team is the No. 4 team on the leaderboard.


翻译:科学索赔核实是一个独特的挑战,它正在引起越来越多的兴趣。 SCIVER 共同的任务为测试和比较参与小组的索赔核实方法提供了一个基准情景,它包括三个步骤:相关的抽象选择、理由选择和标签预测。在本文件中,我们介绍QMUL-SDS团队参与共同任务的情况。我们提出了一个通过一步一步地进行二进制分类来进行科学索赔核实的方法。我们培训了一名生物-生物伦理专家大分类人员,根据对每个<索赔,抽象名称>进行双向相关性评估来选择摘要,并继续对它进行培训,以便从每个根据<索赔,句子>检索到的抽象摘要中选择理由。我们随后提出了标签预测的两步设置,即首先预测“NOT_ENOUGH_INFO”或“ENOUUGH_INFO”,然后将标为“ENOUGH_INFO”的人标为“SUPTPOR”或“CONTRADICT”。与基准系统相比,我们大大改进了标准。结果,我们的团队是领导板上的第四小组。

0
下载
关闭预览

相关内容

专知会员服务
38+阅读 · 2021年3月3日
专知会员服务
52+阅读 · 2020年9月7日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
经济学中的数据科学,Data Science in Economics,附22页pdf
专知会员服务
35+阅读 · 2020年4月1日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
已删除
将门创投
3+阅读 · 2019年1月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
0+阅读 · 2021年6月11日
Arxiv
0+阅读 · 2021年4月17日
A Survey of Deep Learning for Scientific Discovery
Arxiv
29+阅读 · 2020年3月26日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
已删除
将门创投
3+阅读 · 2019年1月29日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Top
微信扫码咨询专知VIP会员