There is a significant expansion in both volume and range of applications along with the concomitant increase in the variety of data sources. These ever-expanding trends have highlighted the necessity for more versatile analysis tools that offer greater opportunities for algorithmic developments and computationally faster operations than the standard flat-view matrix approach. Tensors, or multi-way arrays, provide such an algebraic framework which is naturally suited to data of such large volume, diversity, and veracity. Indeed, the associated tensor decompositions have demonstrated their potential in breaking the Curse of Dimensionality associated with traditional matrix methods, where a necessary exponential increase in data volume leads to adverse or even intractable consequences on computational complexity. A key tool underpinning multi-linear manipulation of tensors and tensor networks is the standard Tensor Contraction Product (TCP). However, depending on the dimensionality of the underlying tensors, the TCP also comes at the price of high computational complexity in tensor manipulation. In this work, we resort to diagrammatic tensor network manipulation to calculate such products in an efficient and computationally tractable manner, by making use of Tensor Train decomposition (TTD). This has rendered the underlying concepts easy to perceive, thereby enhancing intuition of the associated underlying operations, while preserving mathematical rigour. In addition to bypassing the cumbersome mathematical multi-linear expressions, the proposed Tensor Train Contraction Product model is shown to accelerate significantly the underlying computational operations, as it is independent of tensor order and linear in the tensor dimension, as opposed to performing the full computations through the standard approach (exponential in tensor order).


翻译:应用量和范围都有显著的扩大,同时数据来源种类也随之增加。这些不断扩大的趋势突出表明,需要更加多用途的分析工具,为算法发展和计算速度比标准平面矩阵法更快的操作提供更多机会。Tansors或多路阵列提供了这样的代数框架,这种代数框架自然适合如此大的数量、多样性和真实性的数据。事实上,相关的 Exor 分解表明,它们有可能打破传统矩阵方法所伴随的尺寸曲线,而数据量的必要指数性增长导致计算复杂性的不利甚至棘手后果。一个支持多线性处理高压和高压网络的关键工具是标准的Tensor Contraction 产品(TCP ) 。 然而,根据底部电压、多样性和真实性数据,TCP也以高计算复杂性的价格出现。 在这项工作中,我们采用图表式的色素网络操纵方法,以高效和可计算的方式计算出这类产品,从而导致对计算复杂性产生不利甚至棘手的后果。Tensor decreal comal commall eral or oral oral oral errial adal or or or adlievational as lading as lading (Tegradude) lax the suder) sudududuceal to the subilding to the the the subild to the subilding the subildal decomlifal decommodal decommodal decomlibildal decomlifildaldaltition) sution) vicementaldaldaldaldaldaldaldaldald to vicildaldal vicildaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldaldal su su。在进行这种分析中, vicaldaldaldaldaldaldaldaldal vicaldaldal 也就是,

0
下载
关闭预览

相关内容

CC在计算复杂性方面表现突出。它的学科处于数学与计算机理论科学的交叉点,具有清晰的数学轮廓和严格的数学格式。官网链接:https://link.springer.com/journal/37
专知会员服务
37+阅读 · 2021年4月27日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年10月16日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年10月27日
Arxiv
0+阅读 · 2021年10月26日
Arxiv
4+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
19+阅读 · 2020年7月13日
VIP会员
相关VIP内容
相关资讯
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
已删除
将门创投
5+阅读 · 2018年10月16日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
0+阅读 · 2021年10月27日
Arxiv
0+阅读 · 2021年10月26日
Arxiv
4+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
19+阅读 · 2020年7月13日
Top
微信扫码咨询专知VIP会员