张量卷积神经网络(Tensorial Convolutional Neural Networks, TCNNs)因其在减小模型参数或提高泛化能力方面的优势而受到广泛的研究。然而,甚至权重初始化方法也阻碍了tcnn的探索。具体来说,一般的初始化方法,如Xavier或Kaiming初始化,通常无法为TCNN生成合适的权值。同时,虽然有针对特定架构的特别方法(如张量环网),但它们不适用于具有其他张量分解方法的TCNN(如CP或Tucker分解)。为了解决这一问题,我们提出了一种通用的权值初始化范式,推广了Xavier和Kaiming方法,可广泛应用于任意的TCNN。具体来说,我们首先提出了再现变换,将TCNNs中的逆向过程转换为等效的卷积过程。然后,基于前向和后向过程中的卷积算子,构建统一的范式来控制TCNN中的特征和梯度方差。因此,我们可以推导出各种TCNN的扇入和扇出初始化。我们证明,我们的范式可以稳定TCNNs的训练,导致更快的收敛和更好的结果。

成为VIP会员查看完整内容
17

相关内容

国际机器学习大会(International Conference on Machine Learning,简称ICML ) 是由国际机器学习学会(IMLS)主办的机器学习国际顶级会议,也是CCF-A类学术会议。ICML 2022 共收到5630 投稿,接收1117 篇 short oral,118篇 long oral,录用率为21.94%。
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
18+阅读 · 2021年9月4日
专知会员服务
37+阅读 · 2021年8月20日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
21+阅读 · 2021年6月28日
专知会员服务
22+阅读 · 2021年6月22日
专知会员服务
21+阅读 · 2021年6月14日
专知会员服务
11+阅读 · 2021年5月26日
专知会员服务
80+阅读 · 2021年5月10日
kaiming初始化的推导
极市平台
0+阅读 · 2022年4月17日
WGAN新方案:通过梯度归一化来实现L约束
PaperWeekly
1+阅读 · 2021年12月13日
PyTorch 学习笔记(四):权值初始化的十种方法
极市平台
14+阅读 · 2019年5月1日
手把手教你构建ResNet残差网络
专知
38+阅读 · 2018年4月27日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年7月21日
Arxiv
0+阅读 · 2022年7月18日
Arxiv
13+阅读 · 2021年5月25日
Arxiv
12+阅读 · 2018年1月12日
VIP会员
相关VIP内容
专知会员服务
15+阅读 · 2021年9月15日
专知会员服务
18+阅读 · 2021年9月4日
专知会员服务
37+阅读 · 2021年8月20日
专知会员服务
28+阅读 · 2021年7月19日
专知会员服务
21+阅读 · 2021年6月28日
专知会员服务
22+阅读 · 2021年6月22日
专知会员服务
21+阅读 · 2021年6月14日
专知会员服务
11+阅读 · 2021年5月26日
专知会员服务
80+阅读 · 2021年5月10日
相关资讯
kaiming初始化的推导
极市平台
0+阅读 · 2022年4月17日
WGAN新方案:通过梯度归一化来实现L约束
PaperWeekly
1+阅读 · 2021年12月13日
PyTorch 学习笔记(四):权值初始化的十种方法
极市平台
14+阅读 · 2019年5月1日
手把手教你构建ResNet残差网络
专知
38+阅读 · 2018年4月27日
图注意力网络
科技创新与创业
35+阅读 · 2017年11月22日
Layer Normalization原理及其TensorFlow实现
深度学习每日摘要
32+阅读 · 2017年6月17日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
3+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
微信扫码咨询专知VIP会员