自监督三维表示学习旨在从大规模未标记点云中学习有效的表示。大多数现有方法采用点区分作为预文任务,将两个不同视图中匹配的点作为正对,不匹配的点作为负对。然而,这种方法经常导致语义上相同的点具有不相似的表示,从而产生大量的假负例并引入“语义冲突”问题。为了解决这个问题,我们提出了GroupContrast,一种结合段落分组和语义感知对比学习的新方法。段落分组将点划分为语义上有意义的区域,这增强了语义连贯性并为随后的对比表示学习提供了语义指导。语义感知对比学习增强了从段落分组中提取的语义信息,并有助于缓解“语义冲突”的问题。我们在多个三维场景理解任务上进行了广泛的实验。结果表明,GroupContrast学习到了语义上有意义的表示,并实现了有希望的迁移学习性能。

成为VIP会员查看完整内容
17

相关内容

【NeurIPS2023】用几何协调对抗表示学习视差
专知会员服务
26+阅读 · 2023年10月28日
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
34+阅读 · 2023年10月17日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【NeurIPS2022】时序解纠缠表示学习
专知会员服务
22+阅读 · 2022年10月30日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
19+阅读 · 2022年7月9日
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
25+阅读 · 2021年9月9日
专知会员服务
42+阅读 · 2021年7月1日
专知会员服务
29+阅读 · 2020年9月18日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
【ICML2020】对比多视角表示学习
专知
19+阅读 · 2020年6月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
395+阅读 · 2023年3月31日
Arxiv
65+阅读 · 2023年3月26日
Arxiv
68+阅读 · 2022年9月7日
VIP会员
相关VIP内容
【NeurIPS2023】用几何协调对抗表示学习视差
专知会员服务
26+阅读 · 2023年10月28日
【NeurIPS2023】半监督端到端对比学习用于时间序列分类
专知会员服务
34+阅读 · 2023年10月17日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【NeurIPS2022】时序解纠缠表示学习
专知会员服务
22+阅读 · 2022年10月30日
【ICML2022】基于自适应上下文池化的高效表示学习
专知会员服务
19+阅读 · 2022年7月9日
专知会员服务
15+阅读 · 2021年10月4日
专知会员服务
25+阅读 · 2021年9月9日
专知会员服务
42+阅读 · 2021年7月1日
专知会员服务
29+阅读 · 2020年9月18日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员