题目: Order-Preserving Key Compression for In-Memory Search Trees

简介:

本文提出了一种用于内存搜索树的高速保序编码器(HOPE)。HOPE是一个快速的基于字典的压缩器,它可以对任意键进行编码,同时保持它们的顺序。HOPE的方法是在细粒度上识别常见的键模式,并利用熵实现小字典的高压缩率。我们首先建立了一个理论模型来推理关于保留订单的字典设计。在此基础上,选取了6种具有代表性的压缩方案,并进行了实验验证。这些方案在压缩率和编码速度之间进行了不同的权衡。我们对数据库中使用的五种数据结构进行了评估:SuRF、ART、HOT、B+tree和Prefix B+tree。我们的实验表明,对于大多数字符串键工作负载,使用HOPE允许搜索树同时实现更低的查询延迟(最多降低40%)和更好的内存效率(最多降低30%)。

成为VIP会员查看完整内容
14

相关内容

【强化学习资源集合】Awesome Reinforcement Learning
专知会员服务
93+阅读 · 2019年12月23日
深度神经网络模型压缩与加速综述
专知会员服务
128+阅读 · 2019年10月12日
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
CVPR 2019 | 一个高阶张量搞定整个全卷积网络
机器之心
9+阅读 · 2019年5月12日
已删除
将门创投
7+阅读 · 2018年11月5日
Dynamic Zoom-in Network 论文笔记
统计学习与视觉计算组
6+阅读 · 2018年7月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
35+阅读 · 2019年11月7日
VIP会员
相关资讯
滴滴离线索引快速构建FastIndex架构实践
InfoQ
21+阅读 · 2020年3月19日
【论文笔记】Graph U-Nets
专知
80+阅读 · 2019年11月25日
【NeurIPS 2019】7篇自动化神经网络搜索(NAS)论文简读
中国人工智能学会
15+阅读 · 2019年9月13日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
CVPR 2019 | 一个高阶张量搞定整个全卷积网络
机器之心
9+阅读 · 2019年5月12日
已删除
将门创投
7+阅读 · 2018年11月5日
Dynamic Zoom-in Network 论文笔记
统计学习与视觉计算组
6+阅读 · 2018年7月18日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
微信扫码咨询专知VIP会员