Operating systems include many heuristic algorithms designed to improve overall storage performance and throughput. Because such heuristics cannot work well for all conditions and workloads, system designers resorted to exposing numerous tunable parameters to users -- essentially burdening users with continually optimizing their own storage systems and applications. Storage systems are usually responsible for most latency in I/O heavy applications, so even a small overall latency improvement can be significant. Machine learning (ML) techniques promise to learn patterns, generalize from them, and enable optimal solutions that adapt to changing workloads. We propose that ML solutions become a first-class component in OSs and replace manual heuristics to optimize storage systems dynamically. In this paper, we describe our proposed ML architecture, called KML. We developed a prototype KML architecture and applied it to two problems: optimal readahead and NFS read-size values. Our experiments show that KML consumes little OS resources, adds negligible latency, and yet can learn patterns that can improve I/O throughput by as much as 2.3x or 15x for the two use cases respectively -- even for complex, never-before-seen, concurrently running mixed workloads on different storage devices.


翻译:操作系统包括许多旨在改进总体储存性能和吞吐量的超光速算法。由于这种超光速算法无法在所有条件和工作量中都很好地发挥作用,系统设计者不得不向用户披露许多可捕量参数 -- -- 基本上给用户带来负担,不断优化自己的储存系统和应用。存储系统通常对I/O重度应用中的大部分潜伏性负责,因此即使是一个小型的总体潜伏性改进也是重要的。机器学习(ML)技术有望学习模式,从中概括这些模式,并促成适应不断变化的工作量的最佳解决方案。我们建议ML解决方案成为OS的一流部分,并取代人工蓄量系统,以动态方式优化储存系统。在本文中,我们描述了我们提议的ML结构,称为KML。我们开发了一个原型 KML结构,并将其应用于两个问题:最佳读头和NFS-S-尺寸值。我们的实验显示,KML消耗了少量的OS资源,增加了微不足道的悬浮性潜度,并且能够学习能够将I/O的吞吐量增加2.3x或15x的形态,从而对两个使用的案例分别进行复杂、从未不同存储的混合存储工作量。

0
下载
关闭预览

相关内容

吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
145+阅读 · 2019年10月27日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
9+阅读 · 2018年1月30日
Arxiv
10+阅读 · 2017年12月29日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Adversarial Variational Bayes: Unifying VAE and GAN 代码
CreateAMind
7+阅读 · 2017年10月4日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
5+阅读 · 2018年6月5日
Arxiv
9+阅读 · 2018年1月30日
Arxiv
10+阅读 · 2017年12月29日
Top
微信扫码咨询专知VIP会员