Recent studies on dense captioning and visual grounding in 3D have achieved impressive results. Despite developments in both areas, the limited amount of available 3D vision-language data causes overfitting issues for 3D visual grounding and 3D dense captioning methods. Also, how to discriminatively describe objects in complex 3D environments is not fully studied yet. To address these challenges, we present D3Net, an end-to-end neural speaker-listener architecture that can detect, describe and discriminate. Our D3Net unifies dense captioning and visual grounding in 3D in a self-critical manner. This self-critical property of D3Net also introduces discriminability during object caption generation and enables semi-supervised training on ScanNet data with partially annotated descriptions. Our method outperforms SOTA methods in both tasks on the ScanRefer dataset, surpassing the SOTA 3D dense captioning method by a significant margin (23.56% CiDEr@0.5IoU improvement).


翻译:尽管在这两个领域都取得了一些发展,但现有的三维视觉语言数据数量有限,导致三维视觉定位和三维密集字幕方法的问题过于合适。此外,对于如何对复杂三维环境中的物体进行区分描述,还没有进行充分研究。为了应对这些挑战,我们介绍了D3Net,这是一个端到端神经扬声器-听筒结构,可以探测、描述和区分。我们的D3Net以自我批评的方式统一了三维的密集字幕和视觉定位。D3Net的这种自我批评性特性在对象标题生成过程中也引入了可辨别性,并使得能够进行半监督的关于带有部分附加说明说明的扫描网络数据的培训。我们的方法在扫描Refer数据集的两个任务中都比SOTA 3D密度字幕方法大得多(23.56% CiDEr@0.5IoU 改进)。

0
下载
关闭预览

相关内容

3D是英文“Three Dimensions”的简称,中文是指三维、三个维度、三个坐标,即有长、有宽、有高,换句话说,就是立体的,是相对于只有长和宽的平面(2D)而言。
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【深度学习视频分析/多模态学习资源大列表】
专知会员服务
91+阅读 · 2019年10月16日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
【泡泡一分钟】高动态环境的语义单目SLAM
泡泡机器人SLAM
5+阅读 · 2019年3月27日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
【推荐】全卷积语义分割综述
机器学习研究会
19+阅读 · 2017年8月31日
Arxiv
7+阅读 · 2018年11月27日
Arxiv
6+阅读 · 2018年5月22日
Arxiv
5+阅读 · 2018年3月30日
VIP会员
相关VIP内容
Top
微信扫码咨询专知VIP会员