论文名字

NBoost: Boost Elasticsearch Search Relevance by 80% with BERT

论文摘要

最近,语义搜索通过有希望的搜索引擎,而不仅仅是搜索关键词,来理解搜索背后的含义,从而产生了大量的炒作。然而,使用和构建这些模型的只有信息检索(Information Retrieval,IR)研究人员,他们的代码不容易被转移到具有真实用户的生产环境中。这些研究人员开发的最好的模型能够令人印象深刻地理解语言,在国际关系竞赛的排行榜上名列前茅,比如TREC-CAR。这些语义搜索方法比传统的关键字搜索有了显著的改进,甚至使标准搜索性能提高了一倍。虽然这些结果有望改善用户的搜索体验,但任何利用语义搜索的集成解决方案都需要从头开始构建——正如任何构建搜索引擎的人都无法告诉你的那样,这是一项不小的壮举。我们认为必须有办法将这些模型应用到现有的搜索解决方案中!(例如Elasticsearch)这就是我们决定构建NBoost的原因。

论文作者

Cole Thienes,长期从事人工智能研究,是机器学习领域专家级人物,尤其在自然语言处理领域颇有建树。最近一直致力于自然语言预训练模型研究,并取得了最大突破。主张机器学习要面向实践,面向实际,立志解决当前问题,AI必须要有商业驱动,方能足够长远的发展。

成为VIP会员查看完整内容
12

相关内容

BERT全称Bidirectional Encoder Representations from Transformers,是预训练语言表示的方法,可以在大型文本语料库(如维基百科)上训练通用的“语言理解”模型,然后将该模型用于下游NLP任务,比如机器翻译、问答。
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
【论文推荐】文本分析应用的NLP特征推荐
专知会员服务
33+阅读 · 2019年12月8日
【文章|BERT三步使用NLP迁移学习】NLP Transfer Learning In 3 Steps
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
XLNet团队:只要公平对比,BERT毫无还手之力
机器之心
6+阅读 · 2019年7月23日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
谷歌的 PlaNet 强化学习网络
AI研习社
4+阅读 · 2019年5月11日
BERT之后,GLUE基准升级为SuperGLUE:难度更大
机器之心
5+阅读 · 2019年4月28日
谷歌发布问答系统新语料,同时发布相关挑战赛
Dataset Search | 数据集搜索专用引擎
机器学习算法与Python学习
9+阅读 · 2018年9月7日
Arxiv
5+阅读 · 2019年4月21日
Arxiv
5+阅读 · 2018年6月5日
VIP会员
相关资讯
XLNet团队:只要公平对比,BERT毫无还手之力
机器之心
6+阅读 · 2019年7月23日
NAACL 2019自然语言处理亮点
专知
15+阅读 · 2019年6月15日
谷歌的 PlaNet 强化学习网络
AI研习社
4+阅读 · 2019年5月11日
BERT之后,GLUE基准升级为SuperGLUE:难度更大
机器之心
5+阅读 · 2019年4月28日
谷歌发布问答系统新语料,同时发布相关挑战赛
Dataset Search | 数据集搜索专用引擎
机器学习算法与Python学习
9+阅读 · 2018年9月7日
微信扫码咨询专知VIP会员