The distributed inference framework is an emerging technology for real-time applications empowered by cutting-edge deep machine learning (ML) on resource-constrained Internet of things (IoT) devices. In distributed inference, computational tasks are offloaded from the IoT device to other devices or the edge server via lossy IoT networks. However, narrow-band and lossy IoT networks cause non-negligible packet losses and retransmissions, resulting in non-negligible communication latency. This study solves the problem of the incremental retransmission latency caused by packet loss in a lossy IoT network. We propose a split inference with no retransmissions (SI-NR) method that achieves high accuracy without any retransmissions, even when packet loss occurs. In SI-NR, the key idea is to train the ML model by emulating the packet loss by a dropout method, which randomly drops the output of hidden units in a DNN layer. This enables the SI-NR system to obtain robustness against packet losses. Our ML experimental evaluation reveals that SI-NR obtains accurate predictions without packet retransmission at a packet loss rate of 60%.


翻译:分布式推论框架是一种新兴的实时应用技术,通过尖端深深机学习(ML)在资源受限制的物的互联网(IoT)设备上增强功能。在分布式推论中,计算任务通过丢失的IoT网络从IoT设备卸下到其他设备或边缘服务器。然而,窄带和丢失的IoT网络造成不可忽略的包装损失和再传输,造成不可忽略的通信延迟。本研究解决了在丢失的IoT网络中包装损失造成的递增再传输悬浮的问题。我们建议采用不重复传输的方法进行分裂推论,即使在出现包装损失时,也可在不再传输的情况下实现高度准确性。在SINR网络中,关键的想法是通过以弃置方法模拟包损失来培训ML模型,从而随机地降低DNNF层中隐藏单位的输出量。这使得SI-NR系统能够在丢失包装损失时获得稳健。我们ML的实验性评估显示,SI-% Transmission IMRA在不进行精确损失预测的情况下,将S-INSMML 的精确的容器进行精确的预测。

0
下载
关闭预览

相关内容

Explanation:无线网。 Publisher:Springer。 SIT: http://dblp.uni-trier.de/db/journals/winet/
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Privacy-Preserving Eye-tracking Using Deep Learning
Arxiv
1+阅读 · 2021年6月17日
Arxiv
0+阅读 · 2021年6月16日
Arxiv
45+阅读 · 2019年12月20日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
19篇ICML2019论文摘录选读!
专知
28+阅读 · 2019年4月28日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
相关论文
Privacy-Preserving Eye-tracking Using Deep Learning
Arxiv
1+阅读 · 2021年6月17日
Arxiv
0+阅读 · 2021年6月16日
Arxiv
45+阅读 · 2019年12月20日
Learning to Weight for Text Classification
Arxiv
8+阅读 · 2019年3月28日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Top
微信扫码咨询专知VIP会员