Few-shot segmentation aims to train a segmentation model that can fast adapt to novel classes with few exemplars. The conventional training paradigm is to learn to make predictions on query images conditioned on the features from support images. Previous methods only utilized the semantic-level prototypes of support images as conditional information. These methods cannot utilize all pixel-wise support information for the query predictions, which is however critical for the segmentation task. In this paper, we focus on utilizing pixel-wise relationships between support and query images to facilitate the few-shot segmentation task. We design a novel Cycle-Consistent TRansformer (CyCTR) module to aggregate pixel-wise support features into query ones. CyCTR performs cross-attention between features from different images, i.e. support and query images. We observe that there may exist unexpected irrelevant pixel-level support features. Directly performing cross-attention may aggregate these features from support to query and bias the query features. Thus, we propose using a novel cycle-consistent attention mechanism to filter out possible harmful support features and encourage query features to attend to the most informative pixels from support images. Experiments on all few-shot segmentation benchmarks demonstrate that our proposed CyCTR leads to remarkable improvement compared to previous state-of-the-art methods. Specifically, on Pascal-$5^i$ and COCO-$20^i$ datasets, we achieve 66.6% and 45.6% mIoU for 5-shot segmentation, outperforming previous state-of-the-art methods by 4.6% and 7.1% respectively.


翻译:少截截截面, 目的是训练一个可快速适应小类的分解模型。 常规培训模式是学习以支持图像的特性为条件对查询图像进行预测。 以往的方法只使用支持图像的语义级原型作为有条件信息。 这些方法无法使用所有像素支持的查询预测信息, 但对于分解任务来说却至关重要。 在本文件中, 我们侧重于使用支持和查询图像之间的等离子关系, 以方便微截面任务 。 我们设计了一个新型循环连接$$% TRansexer( CyCTR) 模块, 以综合像素支持功能为基础进行预测。 CyCTR对不同图像的特性进行交叉注意, 即支持和查询图像。 我们观察到可能存在出乎意料的离谱性像素级支持特性。 直接进行交叉访问, 可以从支持到查询和偏移方向查询特性。 因此, 我们提议使用一个新型循环连接关注机制, 来过滤超导值$$_ TR5, 将我们提出的最有害的支持功能- 演示到以前的直径分析方法。

0
下载
关闭预览

相关内容

小样本学习(Few-Shot Learning,以下简称 FSL )用于解决当可用的数据量比较少时,如何提升神经网络的性能。在 FSL 中,经常用到的一类方法被称为 Meta-learning。和普通的神经网络的训练方法一样,Meta-learning 也包含训练过程和测试过程,但是它的训练过程被称作 Meta-training 和 Meta-testing。
专知会员服务
22+阅读 · 2021年9月20日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【论文笔记】通俗理解少样本文本分类 (Few-Shot Text Classification) (1)
深度学习自然语言处理
7+阅读 · 2020年4月8日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
目标检测中的Consistent Optimization
极市平台
6+阅读 · 2019年4月23日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Arxiv
1+阅读 · 2022年2月21日
Arxiv
39+阅读 · 2021年11月11日
Arxiv
8+阅读 · 2021年6月1日
Arxiv
14+阅读 · 2021年3月10日
VIP会员
Top
微信扫码咨询专知VIP会员