This paper investigates task-oriented communication for edge inference, where a low-end edge device transmits the extracted feature vector of a local data sample to a powerful edge server for processing. It is critical to encode the data into an informative and compact representation for low-latency inference given the limited bandwidth. We propose a learning-based communication scheme that jointly optimizes feature extraction, source coding, and channel coding in a task-oriented manner, i.e., targeting the downstream inference task rather than data reconstruction. Specifically, we leverage an information bottleneck (IB) framework to formalize a rate-distortion tradeoff between the informativeness of the encoded feature and the inference performance. As the IB optimization is computationally prohibitive for the high-dimensional data, we adopt a variational approximation, namely the variational information bottleneck (VIB), to build a tractable upper bound. To reduce the communication overhead, we leverage a sparsity-inducing distribution as the variational prior for the VIB framework to sparsify the encoded feature vector. Furthermore, considering dynamic channel conditions in practical communication systems, we propose a variable-length feature encoding scheme based on dynamic neural networks to adaptively adjust the activated dimensions of the encoded feature to different channel conditions. Extensive experiments evidence that the proposed task-oriented communication system achieves a better rate-distortion tradeoff than baseline methods and significantly reduces the feature transmission latency in dynamic channel conditions.


翻译:本文调查以任务为导向的边际推断通信, 即低端边缘设备将本地数据样本提取的特征矢量传输给强大的边缘服务器以供处理。 将数据编码为信息化和紧凑的低长推力代表器对于带宽有限的情况下的低长推力至关重要。 我们提出一个基于学习的通信计划, 共同优化特征提取、 源编码和以任务导向的方式传输编码, 即以下游推力任务为目标, 而不是数据重建。 具体地说, 我们利用一个信息瓶颈( IB) 框架, 正式确定编码特性和推断性性能之间的率扭曲交易交易。 由于 IB 优化对于高维度数据来说在计算上令人厌烦, 我们采用一个基于变异信息瓶颈( VIB) 、 以任务导向性控重的方式, 即降低通信管理量, 作为VIB 框架之前的变异性分布。 此外, 考虑动态频道模型的动态导力模型, 将基于动态导力导力导力导力导力导力导力导力系统, 降低基于实际动态导力导力导力导力导力导力导力导力导力导力导力导力的动态导力导力导力导力导力系统, 使动态导力导力导力导力导力导力导力导力导导导力导力导力导力导力导力导力导力导力导力导力导力导力系统 度任务 度 度 度 度 度 度 度任务 调导力导力导力导力导力导力 调制导力导力 度 度 度 度 度 度 度 制导力 调导力 制导力 度 度 度 度 度 制导力 调导力 调导力 度 度 调制 度 度 度 度 度 度 度 度 度 度 度 度 度 调导力 度 度 度 度 度 度 度 调制 度 度 度 度 调制 度 调制 度 度 度 度 度 度 度 度 度 度 调导力 度

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【硬核书】树与网络上的概率,716页pdf
专知会员服务
70+阅读 · 2021年12月8日
最新《神经架构搜索NAS》教程,33页pdf
专知会员服务
26+阅读 · 2020年12月2日
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
86+阅读 · 2020年12月2日
因果图,Causal Graphs,52页ppt
专知会员服务
242+阅读 · 2020年4月19日
【边缘智能综述论文】A Survey on Edge Intelligence
专知会员服务
115+阅读 · 2020年3月30日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年12月14日
Federated Two-stage Learning with Sign-based Voting
Arxiv
0+阅读 · 2021年12月10日
Arxiv
44+阅读 · 2019年12月20日
VIP会员
相关VIP内容
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Hierarchically Structured Meta-learning
CreateAMind
24+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员