Incremental few-shot semantic segmentation (IFSS) targets at incrementally expanding model's capacity to segment new class of images supervised by only a few samples. However, features learned on old classes could significantly drift, causing catastrophic forgetting. Moreover, few samples for pixel-level segmentation on new classes lead to notorious overfitting issues in each learning session. In this paper, we explicitly represent class-based knowledge for semantic segmentation as a category embedding and a hyper-class embedding, where the former describes exclusive semantical properties, and the latter expresses hyper-class knowledge as class-shared semantic properties. Aiming to solve IFSS problems, we present EHNet, i.e., Embedding adaptive-update and Hyper-class representation Network from two aspects. First, we propose an embedding adaptive-update strategy to avoid feature drift, which maintains old knowledge by hyper-class representation, and adaptively update category embeddings with a class-attention scheme to involve new classes learned in individual sessions. Second, to resist overfitting issues caused by few training samples, a hyper-class embedding is learned by clustering all category embeddings for initialization and aligned with category embedding of the new class for enhancement, where learned knowledge assists to learn new knowledge, thus alleviating performance dependence on training data scale. Significantly, these two designs provide representation capability for classes with sufficient semantics and limited biases, enabling to perform segmentation tasks requiring high semantic dependence. Experiments on PASCAL-5i and COCO datasets show that EHNet achieves new state-of-the-art performance with remarkable advantages.
翻译:递增的语义分解( IFSS ), 是模型逐步扩展的能力, 将仅由少数样本监督的新型图像分解为新类型的图像。 但是, 在旧类中学习的特征可能会大幅漂移, 造成灾难性的遗忘。 此外, 在新类中, 象素分解的样本很少导致在每期学习课中出现臭名昭著的问题。 在本文中, 我们明确将基于阶级的语义分解知识作为分类嵌入和超级嵌入( IFSS ) 的目标, 前者描述独一语义属性, 而后者则表示超级类知识是作为类共享的语义属性。 为了解决IFSS问题, 我们提供EHNet, 也就是说, 从两个方面嵌入适应型更新版和超级级代表关系网络。 首先, 我们建议采用基于适应性格的策略, 避免语义分流化, 通过超级代表和适应性能更新类别, 将新的类中的新级嵌入新的课程。 其次, 超级嵌化问题由少数培训样本引起的问题, 高级嵌入, 高级嵌入 级 高级分级, 基础化 学习 基础 学习 基础化 基础化 升级 学习 学习 升级 升级 升级 学习 学习 基础 基础 学习 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础 基础