Existing data-dependent hashing methods usually learn hash functions from pairwise or triplet data relationships, which only capture the data similarity locally, and often suffer from low learning efficiency and low collision rate. In this work, we propose a new \emph{global} similarity metric, termed as \emph{central similarity}, with which the hash codes of similar data pairs are encouraged to approach a common center and those for dissimilar pairs to converge to different centers, to improve hash learning efficiency and retrieval accuracy. We principally formulate the computation of the proposed central similarity metric by introducing a new concept, i.e., \emph{hash center} that refers to a set of data points scattered in the Hamming space with a sufficient mutual distance between each other. We then provide an efficient method to construct well separated hash centers by leveraging the Hadamard matrix and Bernoulli distributions. Finally, we propose the Central Similarity Quantization (CSQ) that optimizes the central similarity between data points w.r.t.\ their hash centers instead of optimizing the local similarity. CSQ is generic and applicable to both image and video hashing scenarios. Extensive experiments on large-scale image and video retrieval tasks demonstrate that CSQ can generate cohesive hash codes for similar data pairs and dispersed hash codes for dissimilar pairs, achieving a noticeable boost in retrieval performance, i.e. 3\%-20\% in mAP over the previous state-of-the-arts \footnote{The code is at: \url{https://github.com/yuanli2333/Hadamard-Matrix-for-hashing}}


翻译:依赖数据的散列方法通常从对称或三重数据关系中学习散列函数,这种关系只反映当地的数据相似性,而且往往受到低学习效率和低碰撞率的影响。在这项工作中,我们提出一个新的相近度指标,称为 emph{global},鼓励类似数据配对的散列代码接近一个共同中心,鼓励不同配对的散列代码接近一个共同中心,以提高散列学习效率和检索准确性。我们主要通过引入一个新概念来计算拟议的中央类似度指标,即: e.\emph{hash} 中心,这是指在Hamming空间分散的一组数据点,彼此之间有足够的距离。然后我们提出一种高效的方法,通过利用哈达马特矩阵和Bernoulli的分布,来构建一个共同中心。我们建议中央相似性量化(CSQQ),以优化数据点之间的中央相似性比值(w.r.t.h) 和它们的 has-20 中心,而不是最清晰的缩缩缩缩缩的 CQ 和 Cal- dalalal 图像,可以产生一个可应用的大规模图像。

0
下载
关闭预览

相关内容

专知会员服务
61+阅读 · 2020年3月19日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
37+阅读 · 2020年1月10日
近期必读的9篇 CVPR 2019【视觉目标跟踪】相关论文和代码
近期必读的12篇KDD 2019【图神经网络(GNN)】相关论文
专知会员服务
63+阅读 · 2020年1月10日
近期必读的5篇 WSDM 2020【图神经网络(GNN)】相关论文
专知会员服务
57+阅读 · 2020年1月10日
必读的7篇IJCAI 2019【图神经网络(GNN)】相关论文-Part2
专知会员服务
61+阅读 · 2020年1月10日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
SIGIR2019 接收论文列表
专知
18+阅读 · 2019年4月20日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
2012-2018-CS顶会历届最佳论文大列表
深度学习与NLP
6+阅读 · 2019年2月1日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Arxiv
14+阅读 · 2019年11月26日
Learning Blind Video Temporal Consistency
Arxiv
3+阅读 · 2018年8月1日
VIP会员
相关资讯
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
【泡泡汇总】CVPR2019 SLAM Paperlist
泡泡机器人SLAM
14+阅读 · 2019年6月12日
强化学习三篇论文 避免遗忘等
CreateAMind
20+阅读 · 2019年5月24日
SIGIR2019 接收论文列表
专知
18+阅读 · 2019年4月20日
LibRec 精选:近期15篇推荐系统论文
LibRec智能推荐
5+阅读 · 2019年3月5日
领域自适应学习论文大列表
专知
71+阅读 · 2019年3月2日
2012-2018-CS顶会历届最佳论文大列表
深度学习与NLP
6+阅读 · 2019年2月1日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Top
微信扫码咨询专知VIP会员