近年来,计算机视觉领域的发展凸显了视觉Transformer(ViT)在多种任务中的可扩展性,然而在适应性、计算效率以及建模高阶关系的能力之间,仍存在权衡挑战。视觉图神经网络(ViG)作为一种替代方案,通过图结构方法进行建模,但其在边生成过程中依赖的聚类算法带来了计算瓶颈。 为了解决上述问题,我们提出了一种超图视觉Transformer(Hypergraph Vision Transformer, HgVT),该方法将层次化的二分超图结构引入视觉Transformer框架中,从而在保持计算效率的同时捕捉高阶语义关系。HgVT利用种群与多样性正则化动态构建超图,无需依赖聚类操作,并引入专家边池化机制以增强语义信息提取能力,并促进基于图的图像检索。 实验结果表明,HgVT在图像分类与检索任务中均表现出色,展示了其作为高效语义视觉任务框架的潜力。

成为VIP会员查看完整内容
13

相关内容

【KDD2024】Hypformer:在双曲空间中探索高效的双曲变换器
【ACL2024】DoRA:通过动态秩分布增强参数高效微调
专知会员服务
7+阅读 · 2024年5月28日
专知会员服务
25+阅读 · 2021年9月22日
专知会员服务
22+阅读 · 2021年8月23日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Arxiv
166+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
452+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
23+阅读 · 2022年2月4日
Arxiv
10+阅读 · 2021年2月26日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
28+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
相关论文
Arxiv
166+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
452+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2022年9月7日
Arxiv
23+阅读 · 2022年2月4日
Arxiv
10+阅读 · 2021年2月26日
Learning from Few Samples: A Survey
Arxiv
77+阅读 · 2020年7月30日
Heterogeneous Deep Graph Infomax
Arxiv
12+阅读 · 2019年11月19日
Arxiv
19+阅读 · 2018年10月25日
微信扫码咨询专知VIP会员