Skeleton-based action recognition relies on the extraction of spatial-temporal topological information. Hypergraphs can establish prior unnatural dependencies for the skeleton. However, the existing methods only focus on the construction of spatial topology and ignore the time-point dependence. This paper proposes a dynamic spatial-temporal hypergraph convolutional network (DST-HCN) to capture spatial-temporal information for skeleton-based action recognition. DST-HCN introduces a time-point hypergraph (TPH) to learn relationships at time points. With multiple spatial static hypergraphs and dynamic TPH, our network can learn more complete spatial-temporal features. In addition, we use the high-order information fusion module (HIF) to fuse spatial-temporal information synchronously. Extensive experiments on NTU RGB+D, NTU RGB+D 120, and NW-UCLA datasets show that our model achieves state-of-the-art, especially compared with hypergraph methods.
翻译:基于 Skeleton 的动作识别取决于空间时空感官信息的提取。 超时光学可以确定骨骼先前的非自然依赖性。 然而, 现有方法仅侧重于空间地形学的构建, 忽略时间点依赖性。 本文建议建立一个动态空间时空超时演动网络( DST-HCN ), 以捕捉空间时空信息, 用于基于骨骼的行动识别。 DST- HCN 引入时点高光谱( TPH ) 学习时间点关系。 多空间静态高光谱和动态TPH, 我们的网络可以学习更完整的空间时空特征。 此外, 我们使用高顺序信息聚合模块( HIF ) 将空间时空信息同步结合。 关于 NTU RGB+D 、 NTU RGB+D 120 和 NW-UCLA 数据集的广泛实验显示, 我们的模型取得了最新技术, 特别是与高压方法相比。