Intermittent computing systems undergo frequent power failure, hindering necessary data sample capture or timely on-device computation. These missing samples and deadlines limit the potential usage of intermittent computing systems in many time-sensitive and fault-tolerant applications. However, a group/swarm of intermittent nodes may amalgamate to sense and process all the samples by taking turns in waking up and extending their collective on-time. However, coordinating a swarm of intermittent computing nodes requires frequent and power-hungry communication, often infeasible with limited energy. Though previous works have shown promises when all intermittent nodes have access to the same amount of energy to harvest, work has yet to be looked into scenarios when the available energy distribution is different for each node. The proposed AICS framework provides an amalgamated intermittent computing system where each node schedules its wake-up schedules based on the duty cycle without communication overhead. We propose one offline tailored duty cycle selection method (Prime-Co-Prime), which schedules wake-up and sleep cycles for each node based on the measured energy to harvest for each node and the prior knowledge or estimation regarding the relative energy distribution. However, when the energy is variable, the problem is formulated as a Decentralized-Partially Observable Markov Decision Process (Dec-POMDP). Each node uses a group of heuristics to solve the Dec-POMDP and schedule its wake-up cycle.


翻译:间歇计算系统经常断电,阻碍必要数据样本捕捉或及时的设备内计算。这些缺失的样本和期限限制了间歇计算系统在许多时间敏感和容错应用中的潜在使用。然而,一群/群体的间歇节点可以合并在一起,通过轮流唤醒并延长它们的集体开机时间来感知和处理所有样本。然而,协调一群间歇计算节点需要频繁且耗电的通信,这通常在能源有限的情况下不可行。虽然以前的研究已经表明,当所有间歇节点都可以收集相同数量的能量时,存在希望,但是目前尚未研究当每个节点的可用能量分布不同时的情况。所提出的AICS框架提供了一种合并的间歇计算系统,其中每个节点根据占空比调度其唤醒计划,而不需要通信开销。我们提出了一种离线定制的占空比选择方法(Prime-Co-Prime),根据每个节点的测量能量收获和关于相对能量分布的先验知识或估计为每个节点安排唤醒和睡眠周期。但是,当能量是可变的时,将问题建模为分散的部分可观察马尔科夫决策过程(Dec-POMDP)。每个节点使用一组启发式方法来解决Dec-POMDP并安排其唤醒周期。

0
下载
关闭预览

相关内容

Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
Etcd 客户端缓存实践
InfoQ
0+阅读 · 2022年6月10日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
自定义损失函数Gradient Boosting
AI研习社
12+阅读 · 2018年10月16日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月12日
Arxiv
34+阅读 · 2019年11月7日
VIP会员
相关VIP内容
Python分布式计算,171页pdf,Distributed Computing with Python
专知会员服务
105+阅读 · 2020年5月3日
相关资讯
Etcd 客户端缓存实践
InfoQ
0+阅读 · 2022年6月10日
Deep Compression/Acceleration:模型压缩加速论文汇总
极市平台
14+阅读 · 2019年5月15日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
自定义损失函数Gradient Boosting
AI研习社
12+阅读 · 2018年10月16日
机器学习线性代数速查
机器学习研究会
18+阅读 · 2018年2月25日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员