人类通过视觉概念学习获得图像分类的能力,概念形成的过程涉及到共同属性的搜索和概念描述的交织。然而,在大多数使用深度卷积神经网络(ConvNet)的图像分类算法中,表示空间是在概念描述固定为单热点代码的前提下构造的,这限制了属性的挖掘和对未见样本的识别能力。受此启发,我们提出了一种基于ConvNet的视觉概念形成(visual concept formation, LSOVCF)学习策略,该策略将概念形成的两个相互交织的部分,即特征提取和概念描述一起学习。首先,LSOVCF在ConvNet的最后一层取样本响应,引入假设为高斯分布的概念描述,这是训练过程的一部分。其次,对探索和经验损失进行优化设计,采用经验缓存池加速收敛。实验表明,LSOVCF提高了cifar10、STL10、flower17和ImageNet上从经典VGG到SOTA Ghostnet的几种骨架样本识别未见样本的能力。
代码可在\url{https://github.com/elvintanhust/LSOVCF}。