How can we predict missing values in multi-dimensional data (or tensors) more accurately? The task of tensor completion is crucial in many applications such as personalized recommendation, image and video restoration, and link prediction in social networks. Many tensor factorization and neural network-based tensor completion algorithms have been developed to predict missing entries in partially observed tensors. However, they can produce inaccurate estimations as real-world tensors are very sparse, and these methods tend to overfit on the small amount of data. Here, we overcome these shortcomings by presenting a data augmentation technique for tensors. In this paper, we propose DAIN, a general data augmentation framework that enhances the prediction accuracy of neural tensor completion methods. Specifically, DAIN first trains a neural model and finds tensor cell importances with influence functions. After that, DAIN aggregates the cell importance to calculate the importance of each entity (i.e., an index of a dimension). Finally, DAIN augments the tensor by weighted sampling of entity importances and a value predictor. Extensive experimental results show that DAIN outperforms all data augmentation baselines in terms of enhancing imputation accuracy of neural tensor completion on four diverse real-world tensors. Ablation studies of DAIN substantiate the effectiveness of each component of DAIN. Furthermore, we show that DAIN scales near linearly to large datasets.


翻译:如何更准确地预测多维数据( 或 Exors) 中缺失的值? 我们如何能更准确地预测多维数据( 或 Exrons) 中缺失的值呢? 智能完成的任务在许多应用中至关重要, 如个化建议、 图像和视频恢复, 以及社交网络中连接预测。 已经开发了许多基于 Exronic 和 神经网络的 Exor 完成算法, 以预测部分观测的 Exrons 中的缺失条目。 但是, 它们可以产生不准确的估算, 因为真实世界的 Exrons非常稀少, 而这些方法往往过度适应于少量的数据。 在这里, 我们通过为 Exors 提供一种数据增强技术来克服这些缺陷。 在本文中, 我们建议 DAIN, 一个普通的数据增强框架, 提高神经的预测准确性模型, 并找到具有影响力功能的 Exmocal 细胞重要性。 之后, DAINA 将计算每个实体的重要性( 即一个维度指数) 。 最后, DAIN 通过对实体重要性进行加权抽样取样和值预测, 广泛实验结果显示 DAMAILEAR 的接近所有数据放大基线, 。

0
下载
关闭预览

相关内容

数据增强在机器学习领域多指采用一些方法(比如数据蒸馏,正负样本均衡等)来提高模型数据集的质量,增强数据。
专知会员服务
38+阅读 · 2020年9月6日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
152+阅读 · 2020年5月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
【综述笔记】Graph Neural Networks in Recommender Systems
图与推荐
5+阅读 · 2020年12月8日
知识图谱嵌入的Translate模型汇总(TransE,TransH,TransR,TransD)
深度学习自然语言处理
30+阅读 · 2020年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
Arxiv
38+阅读 · 2020年12月2日
Arxiv
4+阅读 · 2019年2月8日
VIP会员
相关资讯
【综述笔记】Graph Neural Networks in Recommender Systems
图与推荐
5+阅读 · 2020年12月8日
知识图谱嵌入的Translate模型汇总(TransE,TransH,TransR,TransD)
深度学习自然语言处理
30+阅读 · 2020年6月12日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
最佳实践:深度学习用于自然语言处理(三)
待字闺中
3+阅读 · 2017年8月20日
Sparsifying Neural Network Connections for Face Recognition
统计学习与视觉计算组
7+阅读 · 2017年6月10日
Top
微信扫码咨询专知VIP会员