Machine Learning Techniques, properly combined with Data Structures, have resulted in Learned Static Indexes, innovative and powerful tools that speed-up Binary Search, with the use of additional space with respect to the table being searched into. Such space is devoted to the ML model. Although in their infancy, they are methodologically and practically important, due to the pervasiveness of Sorted Table Search procedures. In modern applications, model space is a key factor and, in fact, a major open question concerning this area is to assess to what extent one can enjoy the speed-up of Learned Indexes while using constant or nearly constant space models. We address it here by (a) introducing two new models, i.e., denoted {\bf KO-BFS} and {\bf SY-RMI}, respectively; (b) by systematically exploring, for the first time, the time-space trade-offs of a hierarchy of existing models, i.e., the ones in {\bf SOSD}, together with the new ones. We document a novel and rather complex time-space trade-off picture, which is very informative for users. We experimentally show that the {\bf KO-BFS }can speed up Interpolation Search and Uniform Binary Search in constant space. For other versions of Binary Search, our second model, together with the bi-criteria {\bf PGM} index, can achieve a speed-up with a model space of $0.05\%$ more than the one taken by the table, being competitive in terms of time-space trade-off with existing proposals. The {\bf SY-RMI} and the bi-criteria {\bf PGM} complement each other quite well across the various levels of the internal memory hierarchy. Finally, our findings are of interest to designers, since they highlight the need for further studies regarding the time-space relation in Learned Indexes.


翻译:与数据结构适当结合的机器学习技术,已经产生了学习的静态指数、创新和强大的工具,加速了二进制搜索,在搜索的表格上使用了额外的空间。这种空间分别用于ML模型。尽管在初始阶段,它们具有方法和实际重要性,因为分类的表格搜索程序的普及性。在现代应用中,模型空间是一个关键因素,事实上,有关这一领域的一个重大未决问题是评估在使用恒定或近乎恒定的空间模型的同时,在多大程度上能够享受到学习指数的加速。我们在这里讨论的是:(a) 引入两种新的模型,即记下 KO-BFFS} 和 ~bSY-RMI} 。(b) 首次系统地探索现有模型等级的时空交易量,即:在双空数据库中,SOSD} 以及新的表格中,我们记录了一个新的和相当复杂的时空交易模式,即: 将SFIFA 的每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、每部、

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
109+阅读 · 2021年4月17日
专知会员服务
51+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
80+阅读 · 2020年7月26日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
110+阅读 · 2020年6月10日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
61+阅读 · 2020年5月9日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
已删除
架构文摘
3+阅读 · 2019年4月17日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2022年2月10日
Arxiv
0+阅读 · 2022年2月9日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
VIP会员
相关VIP内容
【如何做研究】How to research ,22页ppt
专知会员服务
109+阅读 · 2021年4月17日
专知会员服务
51+阅读 · 2020年12月14日
【干货书】机器学习速查手册,135页pdf
专知会员服务
127+阅读 · 2020年11月20日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
80+阅读 · 2020年7月26日
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
110+阅读 · 2020年6月10日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
61+阅读 · 2020年5月9日
机器学习入门的经验与建议
专知会员服务
94+阅读 · 2019年10月10日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
已删除
架构文摘
3+阅读 · 2019年4月17日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
相关论文
Arxiv
0+阅读 · 2022年2月10日
Arxiv
0+阅读 · 2022年2月9日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Star-Transformer
Arxiv
5+阅读 · 2019年2月28日
Top
微信扫码咨询专知VIP会员