Given the voluminous nature of the multimedia sensed data, the Multimedia Internet of Things (MIoT) devices and networks will present several limitations in terms of power and communication overhead. One traditional solution to cope with the large-size data challenge is to use lossy compression. However, current lossy compression schemes require low compression rate to guarantee acceptable perceived image quality, which results in a low reduction of the communicated data size and consequently a low reduction in the energy and bandwidth consumption. Thus, an efficient compression solution is required for striking a good balance between data size (and consequently communication overhead) and visual degradation. In this paper, a Deep-Learning (DL) super-resolution model is applied to recuperate high quality images (at the application server side) given as input degraded images with a high compression ratio (at the sender side). The experimental analysis shows the effectiveness of the proposed solution in enhancing the visual quality of the compressed and down-scaled images. Consequently, the proposed solution reduces the overall communication overhead and power consumption of limited MIoT devices.


翻译:鉴于多媒体感知数据的数量巨大,Things多媒体互联网(MIOT)装置和网络在电力和通信管理费用方面将产生若干限制。应对大数据挑战的一个传统解决办法是使用失压压缩。然而,目前的失压压缩计划要求低压缩率,以保证可接受的图像质量,从而降低传送的数据尺寸,从而降低能量和带宽消耗量。因此,为了在数据大小(以及随后的通信间接费用)和视觉退化之间取得良好的平衡,需要高效压缩解决方案。在本文件中,应用深通(DL)超级分辨率模型来恢复高品质图像(在应用程序服务器一侧),作为高压缩率(发送方)的输入降解图像。实验分析显示,拟议解决方案在提高压缩和缩小缩放图像的视觉质量方面的效力。因此,拟议解决方案减少了有限的MIOT设备的总体通信间接费用和电力消耗。

0
下载
关闭预览

相关内容

ACM 国际多媒体大会(英文名称:ACM Multimedia,简称:ACM MM)是多媒体领域的顶级国际会议,每年举办一次。
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
91+阅读 · 2019年10月16日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
0+阅读 · 2021年8月6日
Compression of Deep Learning Models for Text: A Survey
A Multi-Objective Deep Reinforcement Learning Framework
VIP会员
相关资讯
LibRec 精选:AutoML for Contextual Bandits
LibRec智能推荐
7+阅读 · 2019年9月19日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员