As the number of open and shared scientific datasets on the Internet increases under the open science movement, efficiently retrieving these datasets is a crucial task in information retrieval (IR) research. In recent years, the development of large models, particularly the pre-training and fine-tuning paradigm, which involves pre-training on large models and fine-tuning on downstream tasks, has provided new solutions for IR match tasks. In this study, we use the original BERT token in the embedding layer, improve the Sentence-BERT model structure in the model layer by introducing the SimCSE and K-Nearest Neighbors method, and use the cosent loss function in the optimization phase to optimize the target output. Our experimental results show that our model outperforms other competing models on both public and self-built datasets through comparative experiments and ablation implementations. This study explores and validates the feasibility and efficiency of pre-training techniques for semantic retrieval of Chinese scientific datasets.


翻译:随着开放科学运动下互联网上开放、共享科学数据集的数量增加,高效地检索这些数据集成为信息检索(IR)研究的关键任务。近年来,大型模型的发展,特别是预训练和微调范式,既通过在大型模型上进行预训练,又在下游任务上进行微调,为IR匹配任务提供了新的解决方案。在本研究中,我们在嵌入层中使用原始的BERT令牌,在模型层中通过引入SimCSE和K-Nearest Neighbors方法改进Sentence-BERT模型结构,并在优化阶段使用cosent loss函数优化目标输出。通过比较实验和消融实现,我们的实验结果表明,我们的模型在公共和自建数据集上均优于其他竞争模型。这项研究探索并验证了预训练技术在中文科学数据集的语义检索中的可行性和效率。

0
下载
关闭预览

相关内容

数据集,又称为资料集、数据集合或资料集合,是一种由数据所组成的集合。
Data set(或dataset)是一个数据的集合,通常以表格形式出现。每一列代表一个特定变量。每一行都对应于某一成员的数据集的问题。它列出的价值观为每一个变量,如身高和体重的一个物体或价值的随机数。每个数值被称为数据资料。对应于行数,该数据集的数据可能包括一个或多个成员。
专知会员服务
16+阅读 · 2021年8月24日
专知会员服务
18+阅读 · 2020年10月13日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
LibRec 精选:推荐系统的常用数据集
LibRec智能推荐
17+阅读 · 2019年2月15日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月17日
Arxiv
16+阅读 · 2021年11月27日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
12+阅读 · 2019年2月28日
VIP会员
相关论文
Arxiv
0+阅读 · 2023年5月17日
Arxiv
16+阅读 · 2021年11月27日
Arxiv
27+阅读 · 2021年11月11日
Arxiv
15+阅读 · 2019年9月11日
Arxiv
12+阅读 · 2019年2月28日
相关基金
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
2+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员