近几年来,Transformer模型在学界和工业界正受到越来越广泛的关注,它的一大特点就是可以根据附近上下文信息的内容赋予不同的注意力权重。Transformer的优越性也促使研究者们希望将其应用到其它的研究领域上,例如计算机视觉或者图网络学习等。
现在我们希望将Transformer结构应用到流形(Manifold)上。先回忆一种简单的情况:当Transformer应用到2D图片上时,它会以一个像素为中心点,综合考虑附近邻域中每一个像素的内容并进行加权信息聚合。在这个过程中,附近邻域中的每一个像素相对中心像素都有一个明确而清晰的位置,并且这个相对位置有一个统一的参数化模式。然而,对于流形这种不规则的数据结构,在Transformer进行信息聚合时,邻域点的相对位置信息存在无数种参数化模式,这种不唯一性会影响计算机进行数据处理和模式识别的结果。
https://openreview.net/pdf?id=fyL9HD-kImm
本文主要贡献如下: