Function-as-a-Service (FaaS) has recently emerged as a new cloud computing paradigm. It promises high utilization of data center resources through allocating resources on demand at per-function request granularity. High cold-start overheads, however, have been limiting FaaS systems' such potential. Prior work has recognized that time redundancy exists across different cold function invocations and has proposed varied snapshots that capture the instantaneous execution state so allow for jump-starts through restoration. However, it remains unclear what the cold-start performance limits are as the previous snapshots employ different techniques and aredesigned for different environments. In this paper, we summarize these snapshots from a taxonomic perspective andpresent a model that depicts the cold-start performance fromfirst principles. To approximate the performance limits, we propose a snapshot design SnapFaaS. We evaluate SnapFaaS using real-world FaaS functions. Our empirical results prove SnapFaaS' efficiency. It is 2-10x as fast as prior work for most functions and achieves near-optimal cold-start performance.


翻译:功能- A- Service( Faas- A- Service) (Faas-Service) 最近作为一个新的云计算模式出现。 它承诺通过按要求按要求按要求分配资源来大量利用数据中心资源。 但是,高冷启动间接费用一直限制FaaS系统的潜力。 先前的工作已经认识到,不同冷运行功能中存在时间冗余现象, 并提出了可以捕捉瞬时执行状态的多种快照, 从而可以通过恢复来跳动。 但是, 仍然不清楚冷启动性能限制是什么, 因为以前的快照使用不同的技术, 并且设计了不同的环境。 在本文中, 我们从分类角度总结这些图片, 并展示一个描述从第一原则开始的冷启动性能的模型 。 为了接近性能限制, 我们提出一个速设计 Spat FaaAS 。 我们用真实世界 FaaaS 函数来评估 Spat Faaas 。 我们的经验结果证明了 SnapfaaS 的效率。 它与大多数功能的先前工作一样快速, 并实现了近最佳的冷启动性表现 。

0
下载
关闭预览

相关内容

专知会员服务
123+阅读 · 2020年9月8日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
9+阅读 · 2021年10月5日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
9+阅读 · 2019年4月19日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
3+阅读 · 2017年12月14日
VIP会员
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
CCF A类 | 顶级会议RTSS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年4月17日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
相关论文
Arxiv
9+阅读 · 2021年10月5日
Meta-Learning with Implicit Gradients
Arxiv
13+阅读 · 2019年9月10日
Arxiv
9+阅读 · 2019年4月19日
Hierarchical Deep Multiagent Reinforcement Learning
Arxiv
8+阅读 · 2018年9月25日
Arxiv
3+阅读 · 2017年12月14日
Top
微信扫码咨询专知VIP会员