Tensor decomposition is a popular technique for tensor completion, However most of the existing methods are based on linear or shallow model, when the data tensor becomes large and the observation data is very small, it is prone to over fitting and the performance decreases significantly. To address this problem, the completion method for a tensor based on a Biased Deep Tensor Factorization Network (BDTFN) is proposed. This method can not only overcome the shortcomings of traditional tensor factorization, but also deal with complex non-linear data. Firstly, the horizontal and lateral tensors corresponding to the observed values of the input tensors are used as inputs and projected to obtain their horizontal (lateral) potential feature tensors. Secondly, the horizontal (lateral) potential feature tensors are respectively constructed into a multilayer perceptron network. Finally, the horizontal and lateral output tensors are fused by constructing a bilinear pooling layer. Tensor forward-propagation is composed of those three step, and its parameters are updated by tensor back-propagation using the multivariable chain rule. In this paper, we consider the large-scale 5-minute traffic speed data set and use it to address the missing data imputation problem for large-scale spatiotemporal traffic data. In addition, we compare the numerical performance of the proposed algorithm with those for state-of-the-art approaches on video recovery and color image recovery. Numerical experimental results illustrate that our approach is not only much more accurate than those state-of-the-art methods, but it also has high speed.


翻译:电离分解法是一种通俗的方法,可以用来完成电压; 然而,大多数现有方法都以线性或浅度模型为基础,当数据粒变大,观测数据非常小时,它容易过装配,性能也明显下降。为了解决这个问题,提出了基于双向深电离分解化网络(BDTFFN)的电离分解法。这种方法不仅可以克服传统的电离分解的缺点,还可以处理复杂的非线性数据。首先,与输入电压的观测值相对应的横向和横向分解器被用作投入,并预测用于获取其横向(双边)潜在特性。第二,横向(双边)潜在特性分解器分别建在一个多层透视网络中。最后,水平和横向输出的电解分解分解法通过建造双线式集合层联合层而结合在一起。Tesorsorproducation 由这三步法组成,而其参数仅由多变式链规则的变向后调整法进行更新。在本纸上,我们考虑的大规模(单级)分解速度递解速度递解的轨方法也用这些高的轨道数据 。

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
深度学习人脸识别系统DFace
深度学习
17+阅读 · 2018年2月14日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
Arxiv
7+阅读 · 2018年8月28日
VIP会员
相关VIP内容
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
深度学习人脸识别系统DFace
深度学习
17+阅读 · 2018年2月14日
【推荐】卷积神经网络类间不平衡问题系统研究
机器学习研究会
6+阅读 · 2017年10月18日
【推荐】TensorFlow手把手CNN实践指南
机器学习研究会
5+阅读 · 2017年8月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员