CRDT[24] Sets as implemented in Riak[6] perform poorly for writes, both as cardinality grows, and for sets larger than 500KB[25]. Riak users wish to create high cardinality CRDT sets, and expect better than O(n) performance for individual insert and remove operations. By decomposing a CRDT set on disk, and employing delta-replication[2], we can achieve far better performance than just delta replication alone: relative to the size of causal metadata, not the cardinality of the set, and we can support sets that are 100s times the size of Riak sets, while still providing the same level of consistency. There is a trade-off in read performance but we expect it is mitigated by enabling queries on sets.


翻译:CRDT[24] 在Riak[6] 中执行的CRDT[6] 设置在写作上表现不佳,因为其基本性增长和500KB[25] 以上各组。 Riak用户希望创建高基性CRDT成套功能,并期望个人插入和删除操作的性能优于O(n)。通过在磁盘上将CRDT成套功能分解为CRDT,并使用三角复制[2],我们可以取得远比仅仅三角洲复制更好的性能:相对于因果元数据的规模,而不是这套集的主要性,我们可以支持100倍于Riak成套功能的成套功能,同时提供同样的一致性水平。阅读性能存在一种平衡,但我们期望通过允许对各组进行查询来减轻它。

0
下载
关闭预览

相关内容

Riak is a Dynamo-inspired key/value store with a distributed database network platform that makes storing and retrieving data simple, safe and low-cost.
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
111+阅读 · 2020年6月10日
商业数据分析,39页ppt
专知会员服务
165+阅读 · 2020年6月2日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
The Measure of Intelligence
Arxiv
8+阅读 · 2019年11月5日
Meta-Learning to Cluster
Arxiv
18+阅读 · 2019年10月30日
Arxiv
3+阅读 · 2018年3月13日
VIP会员
相关VIP内容
知识图谱推理,50页ppt,Salesforce首席科学家Richard Socher
专知会员服务
111+阅读 · 2020年6月10日
商业数据分析,39页ppt
专知会员服务
165+阅读 · 2020年6月2日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
The Measure of Intelligence
Arxiv
8+阅读 · 2019年11月5日
Meta-Learning to Cluster
Arxiv
18+阅读 · 2019年10月30日
Arxiv
3+阅读 · 2018年3月13日
Top
微信扫码咨询专知VIP会员