We present a method to search for a probe (or query) image representation against a large gallery in the encrypted domain. We require that the probe and gallery images be represented in terms of a fixed-length representation, which is typical for representations obtained from learned networks. Our encryption scheme is agnostic to how the fixed-length representation is obtained and can therefore be applied to any fixed-length representation in any application domain. Our method, dubbed HERS (Homomorphically Encrypted Representation Search), operates by (i) compressing the representation towards its estimated intrinsic dimensionality with minimal loss of accuracy (ii) encrypting the compressed representation using the proposed fully homomorphic encryption scheme, and (iii) efficiently searching against a gallery of encrypted representations directly in the encrypted domain, without decrypting them. Numerical results on large galleries of face, fingerprint, and object datasets such as ImageNet show that, for the first time, accurate and fast image search within the encrypted domain is feasible at scale (500 seconds; $275\times$ speed up over state-of-the-art for encrypted search against a gallery of 100 million).


翻译:我们提出了一个方法,用来在加密域内的大画廊上寻找探测器(或查询)图像代表。我们要求探测器和画廊图像以固定长度代表方式代表,这是从学习网络中获得的典型代表方式。我们的加密办法对如何获得固定长度代表方式是不可知的,因此可以适用于任何应用域的任何固定长度代表方式。我们的方法,称为HERS(人工加密代表方式搜索),其操作方式是:(一) 将代表方式压缩到其估计的内在维度,并尽可能降低准确性;(二) 使用拟议的完全同色加密办法加密压缩代表方式,并(三) 在加密域内直接对加密代表方式的画廊进行高效搜索,而不对其进行解密。关于脸部、指纹和图像网等任何物体的大型画廊的数值结果显示,在加密域内进行准确和快速图像搜索,首次可以达到规模(500秒;275美元时间,在100万个画廊的加密搜索速度超过最新工艺)。

0
下载
关闭预览

相关内容

专知会员服务
23+阅读 · 2021年7月10日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
深度学习搜索,Exploring Deep Learning for Search
专知会员服务
57+阅读 · 2020年5月9日
专知会员服务
60+阅读 · 2020年3月19日
专知会员服务
53+阅读 · 2019年12月22日
已删除
将门创投
4+阅读 · 2019年5月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2021年7月13日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
VIP会员
相关资讯
已删除
将门创投
4+阅读 · 2019年5月8日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员