双曲几何在建模复杂结构数据(特别是具有树状和层次结构的数据)方面显示出了显著的潜力。尽管各种双曲神经网络在众多领域表现出色,但将Transformer适应于双曲空间的研究仍然有限。先前的尝试主要集中在修改Transformer中的自注意力模块。然而,这些努力未能开发出完整的双曲Transformer。这主要源于以下原因:(i) 双曲空间中缺乏定义明确的模块,包括线性变换层、LayerNorm层、激活函数、dropout操作等。(ii) 现有双曲自注意力模块相对于输入标记数量具有二次时间复杂度,限制了其可扩展性。为了解决这些挑战,我们提出了一种基于双曲几何洛伦兹模型的新型双曲Transformer,称为Hypformer。在Hypformer中,我们引入了两个基础模块,定义了双曲空间中Transformer的基本模块。此外,我们在双曲空间中开发了一种线性自注意力机制,使双曲Transformer首次能够处理亿级图数据和长序列输入。我们的实验结果证实了Hypformer在各种数据集上的有效性和效率,展示了其作为大规模数据表示和大模型的有效且可扩展解决方案的潜力。

成为VIP会员查看完整内容
17

相关内容

【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
26+阅读 · 7月2日
【WWW2024】重新思考大规模图学习中的节点式传播
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
32+阅读 · 2023年6月9日
【CVPR2023】GeoLayoutLM:视觉信息提取的几何预训练
专知会员服务
30+阅读 · 2023年4月25日
专知会员服务
37+阅读 · 2021年6月3日
专知会员服务
36+阅读 · 2021年5月29日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
61+阅读 · 2021年4月21日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
404+阅读 · 2023年3月31日
Arxiv
67+阅读 · 2023年3月26日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
37+阅读 · 2021年2月10日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
VIP会员
相关VIP内容
【ICML2024】上下文感知标记化的高效世界模型
专知会员服务
26+阅读 · 7月2日
【WWW2024】重新思考大规模图学习中的节点式传播
【KDD2023】发现动态因果空间进行DAG结构学习
专知会员服务
32+阅读 · 2023年6月9日
【CVPR2023】GeoLayoutLM:视觉信息提取的几何预训练
专知会员服务
30+阅读 · 2023年4月25日
专知会员服务
37+阅读 · 2021年6月3日
专知会员服务
36+阅读 · 2021年5月29日
【SIGIR2021】基于嵌入的增量式时序知识图谱补全框架
专知会员服务
61+阅读 · 2021年4月21日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
相关论文
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
404+阅读 · 2023年3月31日
Arxiv
67+阅读 · 2023年3月26日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
37+阅读 · 2021年2月10日
Deep Face Recognition: A Survey
Arxiv
18+阅读 · 2019年2月12日
微信扫码咨询专知VIP会员