Many real-world relational systems, such as social networks and biological systems, contain dynamic interactions. When learning dynamic graph representation, it is essential to employ sequential temporal information and geometric structure. Mainstream work achieves topological embedding via message passing networks (e.g., GCN, GAT). The temporal evolution, on the other hand, is conventionally expressed via memory units (e.g., LSTM or GRU) that possess convenient information filtration in a gate mechanism. Though, such a design prevents large-scale input sequence due to the over-complicated encoding. This work learns from the philosophy of self-attention and proposes an efficient spectral-based neural unit that employs informative long-range temporal interaction. The developed spectral window unit (SWINIT) model predicts scalable dynamic graphs with assured efficiency. The architecture is assembled with a few simple effective computational blocks that constitute randomized SVD, MLP, and graph Framelet convolution. The SVD plus MLP module encodes the long-short-term feature evolution of the dynamic graph events. A fast framelet graph transform in the framelet convolution embeds the structural dynamics. Both strategies enhance the model's ability on scalable analysis. In particular, the iterative SVD approximation shrinks the computational complexity of attention to O(Nd\log(d)) for the dynamic graph with N edges and d edge features, and the multiscale transform of framelet convolution allows sufficient scalability in the network training. Our SWINIT achieves state-of-the-art performance on a variety of online continuous-time dynamic graph learning tasks, while compared to baseline methods, the number of its learnable parameters reduces by up to seven times.


翻译:社交网络和生物系统等许多真实世界关系系统包含动态互动。 当学习动态图形表达方式时, 使用顺序时间信息与几何结构至关重要。 主流工作通过信息传递网络( 如 GCN 、 GAT ) 实现地形嵌入。 另一方面, 时间演进通常通过记忆单位( 如 LSTM 或 GRU ) 进行表达, 这些单位拥有方便的信息过滤功能。 虽然这样的设计可以防止由于过于复杂的编码而导致的大规模边际输入序列。 这项工作学习了自控理论, 并提出了高效的光谱神经单位, 利用信息传递网络( 如 GCN 、 GAT ) 。 开发的光谱窗口单位( SWINIT ) 模型以有一定效率的方式预测可扩展的动态图表。 结构由几个简单有效的计算块组成, 随机的 SVD、 NLP 和图形组合数 。 SVD 和 MLP 模块将动态图表中的长期短期变量变异性动态动态的变异性模型, 在动态图表中, 快速的SLIFLT 格式分析中,, 快速的演进化模型中, 的演化模型中, 的演进进进式模型系统, 学习系统, 的演化模型, 的演进进进进式的系统, 的演算法, 和演进式的演进式的演进制, 的演进式的系统, 的系统, 进制的演进进制的演算法, 进法, 进制式的演进制的变法, 系统, 进制的变式的变式的演进制式的变式的演进制的变式的变式的演进制的变式的变式的变式的变式的演进制的变式的变式的变式的系统,, 。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【AAAI2022】锚点DETR:基于transformer检测器的查询设计
专知会员服务
12+阅读 · 2021年12月31日
专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
82+阅读 · 2020年12月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
CCF B类期刊IPM专刊截稿信息1条
Call4Papers
3+阅读 · 2018年10月11日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2022年1月17日
Arxiv
11+阅读 · 2021年10月26日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
A Graph Auto-Encoder for Attributed Network Embedding
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2017年5月14日
VIP会员
相关VIP内容
【AAAI2022】锚点DETR:基于transformer检测器的查询设计
专知会员服务
12+阅读 · 2021年12月31日
专知会员服务
75+阅读 · 2021年3月16日
专知会员服务
82+阅读 · 2020年12月5日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
相关资讯
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
Ray RLlib: Scalable 降龙十八掌
CreateAMind
8+阅读 · 2018年12月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
CCF B类期刊IPM专刊截稿信息1条
Call4Papers
3+阅读 · 2018年10月11日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
全球人工智能
19+阅读 · 2017年12月17日
【推荐】ResNet, AlexNet, VGG, Inception:各种卷积网络架构的理解
机器学习研究会
20+阅读 · 2017年12月17日
【论文】图上的表示学习综述
机器学习研究会
12+阅读 · 2017年9月24日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
相关论文
Arxiv
0+阅读 · 2022年1月17日
Arxiv
11+阅读 · 2021年10月26日
Geometric Graph Convolutional Neural Networks
Arxiv
10+阅读 · 2019年9月11日
A Graph Auto-Encoder for Attributed Network Embedding
Neural Speech Synthesis with Transformer Network
Arxiv
5+阅读 · 2019年1月30日
Arxiv
3+阅读 · 2017年5月14日
Top
微信扫码咨询专知VIP会员