In the field of deep learning, various architectures have been developed. However, most studies are limited to specific tasks or datasets due to their fixed layer structure. This paper does not express the structure delivering information as a network model but as a data structure called an association tree(AT). And we propose two artificial association networks(AANs) designed to solve the problems of existing networks by analyzing the structure of human neural networks. Defining the starting and ending points of the path in a single graph is difficult, and a tree cannot express the relationship among sibling nodes. On the contrary, an AT can express leaf and root nodes as the starting and ending points of the path and the relationship among sibling nodes. Instead of using fixed sequence layers, we create an AT for each data and train AANs according to the tree's structure. AANs are data-driven learning in which the number of convolutions varies according to the depth of the tree. Moreover, AANs can simultaneously learn various types of datasets through the recursive learning. Depth-first convolution (DFC) encodes the interaction result from leaf nodes to the root node in a bottom-up approach, and depth-first deconvolution (DFD) decodes the interaction result from the root node to the leaf nodes in a top-down approach. We conducted three experiments. The first experiment verified whether it could be processed by combining AANs and feature extraction networks. In the second, we compared the performance of networks that separately learned image, sound, and tree, graph structure datasets with the performance simultaneously learned by connecting these networks. In the third, we verified whether the output of AANs can embed all data in the AT. As a result, AATs learned without significant performance degradation.


翻译:在深层学习领域,已经开发了各种结构。 但是, 大多数研究都局限于特定的任务或数据集, 原因是它们固定的层结构。 本文并不表示作为网络模型而提供信息的结构, 而是作为称为关联树(AT) 的数据结构。 我们建议了两个人工联系网络( AANs), 目的是通过分析人类神经网络的结构来解决现有网络的问题。 在一个图形中定义路径的起始点和结束点是困难的, 树不能表达相交节点之间的关系。 相反, AT 可以表示叶和根节点, 作为路径结构的起始点, 以及 sibling节点之间的关系。 我们不是使用固定的序列层, 而是为每个数据创建一个 ATs, 并且按照树的结构来培训 AANs 。 AANs 是数据驱动的学习, 其中的变数因树的深度而不同而不同。 此外, AANs 也可以同时通过循环学习各种类型的数据配置方法。 深层次的 ANC( DFC) 将图像网络的运行结果与直径直径解的运行结果进行对比 。

0
下载
关闭预览

相关内容

神经常微分方程教程,50页ppt,A brief tutorial on Neural ODEs
专知会员服务
71+阅读 · 2020年8月2日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
专知会员服务
60+阅读 · 2020年3月19日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
5+阅读 · 2021年2月15日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
49+阅读 · 2020年12月16日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
4+阅读 · 2017年1月2日
VIP会员
相关资讯
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
论文浅尝 | GMNN: Graph Markov Neural Networks
开放知识图谱
20+阅读 · 2020年2月14日
内涵网络嵌入:Content-rich Network Embedding
我爱读PAMI
4+阅读 · 2019年11月5日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】RNN最新研究进展综述
机器学习研究会
25+阅读 · 2018年1月6日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
【论文】图上的表示学习综述
机器学习研究会
14+阅读 · 2017年9月24日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关论文
Arxiv
5+阅读 · 2021年2月15日
Arxiv
35+阅读 · 2021年1月27日
Arxiv
49+阅读 · 2020年12月16日
Arxiv
20+阅读 · 2019年11月23日
Arxiv
23+阅读 · 2018年10月1日
Arxiv
7+阅读 · 2018年1月10日
Arxiv
4+阅读 · 2017年1月2日
Top
微信扫码咨询专知VIP会员