Dense retrieval models have become a standard for state-of-the-art information retrieval. However, their high-dimensional, high-precision (float32) vector embeddings create significant storage and memory challenges for real-world deployment. To address this, we conduct a rigorous empirical study on the BEIR SciFact benchmark, evaluating the trade-offs between two primary compression strategies: (1) Dimensionality Reduction via deep Autoencoders (AE), reducing original 384-dim vectors to latent spaces from 384 down to 12, and (2) Precision Reduction via Quantization (float16, int8, and binary). We systematically compare each method by measuring the "performance loss" (or gain) relative to a float32 baseline across a full suite of retrieval metrics (NDCG, MAP, MRR, Recall, Precision) at various k cutoffs. Our results show that int8 scalar quantization provides the most effective "sweet spot," achieving a 4x compression with a negligible [~1-2%] drop in nDCG@10. In contrast, Autoencoders show a graceful degradation but suffer a more significant performance loss at equivalent 4x compression ratios (AE-96). binary quantization was found to be unsuitable for this task due to catastrophic performance drops. This work provides a practical guide for deploying efficient, high-performance retrieval systems.


翻译:稠密检索模型已成为信息检索领域最先进技术的标准方法。然而,其高维、高精度(float32)的向量嵌入在实际部署中带来了显著的存储和内存挑战。为解决这一问题,我们在BEIR SciFact基准上进行了严格的实证研究,评估了两种主要压缩策略之间的权衡:(1)通过深度自编码器(AE)进行降维,将原始的384维向量压缩至从384到12不等的潜在空间;(2)通过量化(float16、int8和二值化)降低精度。我们系统性地比较了每种方法,通过在一系列检索指标(NDCG、MAP、MRR、召回率、精确率)上,以不同的k截断值,测量相对于float32基线的“性能损失”(或增益)。结果显示,int8标量量化提供了最有效的“最佳平衡点”,实现了4倍压缩,且nDCG@10指标仅出现可忽略的[约1-2%]下降。相比之下,自编码器表现出平缓的性能衰减,但在等效的4倍压缩比(AE-96)下性能损失更为显著。二值化量化由于性能急剧下降,被证明不适用于此任务。本研究为部署高效、高性能的检索系统提供了实用指南。

0
下载
关闭预览

相关内容

ICML'21:一种计算用户嵌入表示的新型协同过滤方法
专知会员服务
15+阅读 · 2021年12月31日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
VIP会员
相关资讯
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
误差反向传播——CNN
统计学习与视觉计算组
30+阅读 · 2018年7月12日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员