题目: FEEDBACK RECURRENT AUTOENCODER

摘要: 在这项工作中,我们提出了一种新的递归自编码器架构,称为反馈递归自编码器(FRAE),用于时序数据的在线压缩。FRAE的重流结构是为了有效地提取沿时间维的冗余,并允许对学习的数据进行紧凑的离散表示。我们证明了它在语音谱图压缩中的有效性。具体来说,我们证明了FRAE与一个强大的神经声码器相结合,可以在低的固定比特率下产生高质量的语音波形。我们进一步证明,通过增加一个潜在空间的学习先验和使用熵编码器,我们可以实现更低的可变比特率。

成为VIP会员查看完整内容
21

相关内容

【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
74+阅读 · 2020年6月21日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
242+阅读 · 2020年6月16日
【SIGIR2020】用于冷启动推荐的内容感知神经哈希
专知会员服务
20+阅读 · 2020年6月2日
2019必读的十大深度强化学习论文
专知会员服务
51+阅读 · 2020年1月16日
脉冲神经网络(SNN)概述
人工智能前沿讲习班
56+阅读 · 2019年5月30日
利用神经网络进行序列到序列转换的学习
AI研习社
9+阅读 · 2019年4月26日
胶囊网络,是什么?
人工智能头条
31+阅读 · 2019年1月2日
【论文笔记】ICLR 2018 Wasserstein自编码器
专知
19+阅读 · 2018年6月29日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
15+阅读 · 2017年7月19日
Arxiv
3+阅读 · 2018年10月25日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
5+阅读 · 2016年10月24日
VIP会员
相关主题
相关VIP内容
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
74+阅读 · 2020年6月21日
最新《深度多模态数据分析》综述论文,26页pdf
专知会员服务
242+阅读 · 2020年6月16日
【SIGIR2020】用于冷启动推荐的内容感知神经哈希
专知会员服务
20+阅读 · 2020年6月2日
2019必读的十大深度强化学习论文
专知会员服务
51+阅读 · 2020年1月16日
相关资讯
脉冲神经网络(SNN)概述
人工智能前沿讲习班
56+阅读 · 2019年5月30日
利用神经网络进行序列到序列转换的学习
AI研习社
9+阅读 · 2019年4月26日
胶囊网络,是什么?
人工智能头条
31+阅读 · 2019年1月2日
【论文笔记】ICLR 2018 Wasserstein自编码器
专知
19+阅读 · 2018年6月29日
Simple Recurrent Unit For Sentence Classification
哈工大SCIR
6+阅读 · 2017年11月29日
【深度学习基础】4. Recurrent Neural Networks
微信AI
15+阅读 · 2017年7月19日
相关论文
Arxiv
3+阅读 · 2018年10月25日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
6+阅读 · 2018年3月12日
Arxiv
5+阅读 · 2018年1月16日
Arxiv
5+阅读 · 2016年10月24日
微信扫码咨询专知VIP会员