无监督多重图学习 (UMGL) 旨在通过各种边类型学习节点表示,而无需手动标注。然而,现有研究忽略了一个关键因素:图结构的可靠性。现实世界的数据通常表现出复杂的特性,并且包含大量与任务无关的噪声,严重影响了 UMGL 的性能。此外,现有方法主要依赖于对比学习来最大化不同图之间的互信息,这使得它们仅限于处理多重图的冗余场景,未能捕捉到视图特有的任务相关信息。在本文中,我们专注于一个更具现实性和挑战性的任务:无监督地从多个图中学习一个融合图,该图能够保留足够的任务相关信息,同时去除任务无关的噪声。具体而言,我们提出的信息感知无监督多重图融合框架 (InfoMGF) 使用图结构优化来消除无关噪声,同时最大化视图共享和视图特有的任务相关信息,从而应对非冗余多重图的前沿问题。理论分析进一步保证了 InfoMGF 的有效性。在不同下游任务上与多种基线方法的综合实验表明了其优越的性能和鲁棒性。令人惊讶的是,我们的无监督方法甚至超过了复杂的监督方法。源码和数据集可在 https://github.com/zxlearningdeep/InfoMGF 获取。

成为VIP会员查看完整内容
23

相关内容

【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
26+阅读 · 2022年12月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
36+阅读 · 2022年10月4日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
44+阅读 · 2021年12月14日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年6月19日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【KDD2020】图神经网络生成式预训练
专知
22+阅读 · 2020年7月3日
无人机集群、蜂群与蜂群算法
无人机
89+阅读 · 2018年9月25日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关VIP内容
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【KDD2023】基于弱信息的强图神经网络学习
专知会员服务
38+阅读 · 2023年6月4日
【AAAI2023】自适应黎曼空间中的自监督连续图学习
专知会员服务
26+阅读 · 2022年12月2日
【NeurIPS2022】通过模型转换的可解释强化学习
专知会员服务
36+阅读 · 2022年10月4日
【AAAI2022】混合图神经网络的少样本学习
专知会员服务
44+阅读 · 2021年12月14日
专知会员服务
64+阅读 · 2021年7月25日
专知会员服务
37+阅读 · 2021年6月19日
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员