It is important to learn joint embedding for 3D shapes and text in different shape understanding tasks, such as shape-text matching, retrieval, and shape captioning. Current multi-view based methods learn a mapping from multiple rendered views to text. However, these methods can not analyze 3D shapes well due to the self-occlusion and limitation of learning manifolds. To resolve this issue, we propose a method to learn joint embedding of point clouds and text by matching parts from shapes to words from sentences in a common space. Specifically, we first learn segmentation prior to segment point clouds into parts. Then, we map parts and words into an optimized space, where the parts and words can be matched with each other. In the optimized space, we represent a part by aggregating features of all points within the part, while representing each word with its context information, where we train our network to minimize the triplet ranking loss. Moreover, we also introduce cross-modal attention to capture the relationship of part-word in this matching procedure, which enhances joint embedding learning. Our experimental results outperform the state-of-the-art in multi-modal retrieval under the widely used benchmark.


翻译:学习 3D 形状 和 文本 在 不同 的 理解 任务 中 学习 3D 形状和 文本 的 共同 嵌入 很重要, 比如 形状- 文本 匹配、 检索 和 形状 字幕 。 当前基于多视图 的 方法 从 多重 的 视图 到 文本 学习 绘图 。 但是, 由于 学习 的 多元 的 自我 封闭和 限制, 这些 方法无法很好地分析 3D 形状 。 为了解决这个问题, 我们提出了一个方法, 通过 将 3D 云 和 文本 从 形状 到 共同 的 句子 的 部分 匹配 来 学习 。 具体地, 我们首先 在 分点 云 到 部件 部分 之前 学习 的 分数 。 然后, 我们绘制 部分 和 文字 进入 一个 优化 的 空间 。 在 优化 的 空间 。 在 优化 区域, 我们 中, 我们代表 部分 部分 部分 的 部分 部分 代表 部分 部分 部分, 通过, 通过 集合 将 全部 的 集合 和 中 的 集合, 和 的, 和 和 和 的 的 的 组合 在 和 的 组合 在 中 的 的 的, 在 中 的, 在 的 中 的, 在 使用 上 在 通用 基准下 在 中 中 的 中 的 中 的 的 的 的 的 的, 我们, 我们, 我们 匹配 的 的 的 的 的 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内

0
下载
关闭预览

相关内容

专知会员服务
35+阅读 · 2021年7月7日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
抢鲜看!13篇CVPR2020论文链接/开源代码/解读
专知会员服务
49+阅读 · 2020年2月26日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
57+阅读 · 2019年10月17日
已删除
将门创投
5+阅读 · 2020年3月2日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
CVPR2019| 05-20更新17篇点云相关论文及代码合集
极市平台
23+阅读 · 2019年5月20日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
5+阅读 · 2018年12月18日
Arxiv
3+阅读 · 2018年11月14日
Arxiv
8+阅读 · 2018年1月25日
VIP会员
相关资讯
已删除
将门创投
5+阅读 · 2020年3月2日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
CVPR2019| 05-20更新17篇点云相关论文及代码合集
极市平台
23+阅读 · 2019年5月20日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员