Hash coding has been widely used in the approximate nearest neighbor search for large-scale image retrieval. Recently, many deep hashing methods have been proposed and shown largely improved performance over traditional feature-learning-based methods. Most of these methods examine the pairwise similarity on the semantic-level labels, where the pairwise similarity is generally defined in a hard-assignment way. That is, the pairwise similarity is '1' if they share no less than one class label and '0' if they do not share any. However, such similarity definition cannot reflect the similarity ranking for pairwise images that hold multiple labels. In this paper, a new deep hashing method is proposed for multi-label image retrieval by re-defining the pairwise similarity into an instance similarity, where the instance similarity is quantified into a percentage based on the normalized semantic labels. Based on the instance similarity, a weighted cross-entropy loss and a minimum mean square error loss are tailored for loss-function construction, and are efficiently used for simultaneous feature learning and hash coding. Experiments on three popular datasets demonstrate that, the proposed method outperforms the competing methods and achieves the state-of-the-art performance in multi-label image retrieval.


翻译:在近邻近邻的大规模图像检索中广泛使用了散列编码。 最近, 许多深重的散列方法已经提出, 并显示出与传统的基于地貌学习的方法相比的性能有很大的改进。 这些方法大多在语义级标签上检查对称相似性, 即对称相似性一般以硬分配方式定义。 也就是说, 配对相似性是“ 1 ”, 如果它们共享不少于一个类标签, 如果它们不共享任何等级标签, 则“ 0 ” 。 然而, 这种相似性定义无法反映持有多个标签的对称图像的相似性排序。 在本文中, 提出了一种新的深重度散列方法, 通过重新定义对称相似性来检索多标签图像, 将对称相似性量化成一个实例相似性。 以类似性为基于正统的语义标签的百分率。 根据类似性、 加权跨大西洋损失和最小平均平方差损失都适合损失的构造, 并高效地用于同时进行地段学习并进行编码。 在三种通用的图像检索中, 实验中, 将三种通用的图像转换方法显示: 。

5
下载
关闭预览

相关内容

专知会员服务
49+阅读 · 2020年6月14日
开源书:PyTorch深度学习起步
专知会员服务
49+阅读 · 2019年10月11日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
37+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Github项目推荐 | DeepHash - 深度学习哈希开源库
AI研习社
26+阅读 · 2019年4月30日
深度自进化聚类:Deep Self-Evolution Clustering
我爱读PAMI
14+阅读 · 2019年4月13日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Jointly Improving Summarization and Sentiment Classification
黑龙江大学自然语言处理实验室
3+阅读 · 2018年6月12日
LibRec 每周精选:近期推荐系统论文及进展
机器学习研究会
4+阅读 · 2018年2月5日
A survey on deep hashing for image retrieval
Arxiv
14+阅读 · 2020年6月10日
Arxiv
7+阅读 · 2020年3月1日
Arxiv
9+阅读 · 2018年5月7日
Arxiv
5+阅读 · 2018年3月6日
VIP会员
Top
微信扫码咨询专知VIP会员