It is important to learn joint embedding for 3D shapes and text in different shape understanding tasks, such as shape-text matching, retrieval, and shape captioning. Current multi-view based methods learn a mapping from multiple rendered views to text. However, these methods can not analyze 3D shapes well due to the self-occlusion and limitation of learning manifolds. To resolve this issue, we propose a method to learn joint embedding of point clouds and text by matching parts from shapes to words from sentences in a common space. Specifically, we first learn segmentation prior to segment point clouds into parts. Then, we map parts and words into an optimized space, where the parts and words can be matched with each other. In the optimized space, we represent a part by aggregating features of all points within the part, while representing each word with its context information, where we train our network to minimize the triplet ranking loss. Moreover, we also introduce cross-modal attention to capture the relationship of part-word in this matching procedure, which enhances joint embedding learning. Our experimental results outperform the state-of-the-art in multi-modal retrieval under the widely used benchmark.
翻译:学习 3D 形状 和 文本 在 不同 的 理解 任务 中 学习 3D 形状和 文本 的 共同 嵌入 很重要, 比如 形状- 文本 匹配、 检索 和 形状 字幕 。 当前基于多视图 的 方法 从 多重 的 视图 到 文本 学习 绘图 。 但是, 由于 学习 的 多元 的 自我 封闭和 限制, 这些 方法无法很好地分析 3D 形状 。 为了解决这个问题, 我们提出了一个方法, 通过 将 3D 云 和 文本 从 形状 到 共同 的 句子 的 部分 匹配 来 学习 。 具体地, 我们首先 在 分点 云 到 部件 部分 之前 学习 的 分数 。 然后, 我们绘制 部分 和 文字 进入 一个 优化 的 空间 。 在 优化 的 空间 。 在 优化 区域, 我们 中, 我们代表 部分 部分 部分 的 部分 部分 代表 部分 部分 部分, 通过, 通过 集合 将 全部 的 集合 和 中 的 集合, 和 的, 和 和 和 的 的 的 组合 在 和 的 组合 在 中 的 的 的, 在 中 的, 在 的 中 的, 在 使用 上 在 通用 基准下 在 中 中 的 中 的 中 的 的 的 的 的 的, 我们, 我们, 我们 匹配 的 的 的 的 的 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内 校内