颠覆传统、大规模检索系统首次引入「热刷新」模型升级,腾讯ARC Lab论文入选ICLR 2022

2022 年 2 月 12 日 极市平台
↑ 点击 蓝字  关注极市平台

作者丨腾讯ARC Lab & 腾讯OVB-AI技术中心
编辑丨极市平台

极市导读

 

腾讯ARC Lab、清华大学及腾讯在线视频BU-AI技术中心针对大规模检索系统推出“热刷新”模型升级的新机制,实现新模型即时部署上线、精度稳步在线提升等特性,并针对刷新过程中的模型退化问题提出有效解决方案。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

引言:

颠覆传统“冷刷新”模型升级范式,腾讯ARC Lab、清华大学及腾讯在线视频BU-AI技术中心针对大规模检索系统推出“热刷新”模型升级的新机制,实现新模型即时部署上线、精度稳步在线提升等特性,并针对刷新过程中的模型退化问题提出有效解决方案。论文收录于ICLR 2022,这是热刷新模型升级在学术界的首秀,领域主席评价“这是真实世界的图像检索系统中一个非常实用且重要的问题”。“热刷新”模型升级算法已成功部署在腾讯PCG视频关系中台,为千亿级向量索引系统提供快速模型升级服务,迭代效率提升4+倍。

论文链接:https://arxiv.org/abs/2201.09724

代码链接:https://github.com/binjiezhang/RACT_ICLR2022

1 检索模型升级方式的革新

图像检索的应用在生活中无处不在,例如人脸识别、版权检测、图像定位等等,检索系统在推理时需要利用部署好的模型对查询图像进行特征提取,再与底库中所有预先提取好并存储的图像特征进行比对。对检索系统中部署的模型进行更新迭代是提升检索精度、改善用户体验的必经之路。

1.1 冷刷新 v.s. 热刷新

在传统的检索模型升级过程中,需要先用新模型离线刷新底库中的所有特征(称之为特征“回填”),再将新模型部署上线,这一过程被称之 “冷刷新”模型升级。大规模检索系统往往存在海量的底库图像,将其全部离线刷新一遍可能花费数周乃至数月,冷刷新模型升级存在模型迭代的时间成本高、用户体验不能得到即时改善等几大弊端。

为此,作者首次提出 “热刷新”模型升级方案,兼容学习[1]训练的新模型所提取的新特征由于可以与底库中的旧特征直接对比,所以无需特征回填便可即时部署上线新模型;同时,由于新特征与旧特征直接可比、可互换,所以在新模型部署上线后,可以利用新模型在线刷新底库特征,实现检索精度的逐步爬升,直至全部底库特征刷新完毕。

如下图所示,“热刷新”模型升级机制无需等待离线特征回填,精度即时提升(O->A)且用户体验逐步改善(A->B),离“无缝”模型升级更近一步。

“冷刷新”模型升级 & “热刷新”模型升级

1.2 热刷新 v.s. 无刷新

在过往的兼容学习[1]工作中也曾有对模型即时部署的阐述,作者提出新模型的兼容特性使其可以在无特征回填的情况下部署上线,这种升级策略被称之为 “无刷新”模型升级。在该策略下,底库特征始终保持不变,限制了新模型的精度上限,在多代模型升级后劣势尤其显著。

如下图所示,虚线为“无刷新”模型升级,实线为“热刷新”模型升级,从三次模型升级迭代后的精度变化中,可以明显观察出“热刷新”模型升级的优势。大家在图中可能发现,热刷新过程中,模型精度出现了短暂的下降,这也就是下文要继续介绍的“模型退化”(model regression)问题。

“热刷新”模型升级(实线) & “无刷新”模型升级(虚线)

2 热刷新升级中的模型退化问题

尽管现有的兼容训练算法使得热刷新模型升级成为了可能,但他们均面临刷新过程中的“模型退化”问题,即升级中检索精度的下降,如下图所示(A->C)。

热刷新模型升级中的模型退化问题

作者发现,这实际上是由升级过程中的负翻转造成,负翻转指的是旧检索系统中可以正确识别的查询图像在热刷新升级过程中被错误识别。而造成负翻转的最主要原因,是在底库特征在线回填过程中,存在新->新负样本对距离小于新->旧正样本对距离的情况,如下图所示。

负翻转的主要因素

2.1 缓解退化的兼容约束

为了缓解热刷新模型升级过程中的模型退化问题,作者提出了一种简单有效的正则化,即约束新->旧正样本对距离不光要小于新->旧负样本对距离,也要小于新->新负样本对距离(过往兼容学习算法只约束了前者),并以对比学习的形式呈现。如下图所示,该正则化被称之为缓解退化的兼容损失函数,具体公式不在此呈现,感兴趣的读者可翻阅论文。

缓解退化的兼容训练

这一正则化看似是对已有兼容损失函数的细微修改,但对于缓解模型退化问题来说起着本质的作用。如下图所示,作者在Google Landmark v2数据集上针对三种不同类型的数据设置(数据拓展、开放数据以及开放类别)进行了实验,均可观察到所提出算法的有效性。同时,作者对热刷新模型升级过程中的负翻转率进行了定义,量化模型退化程度,如图中内嵌小图所示,所提出的算法可有效减少负翻转率。

传统兼容训练(虚线) & 缓解退化的兼容训练(实线)

2.2 基于不确定性的回填策略

上文提到的损失函数在训练阶段显式地约束新模型减少负翻转的可能性出现,同时作者也提出一种基于不确定性的底库回填策略,可以在热刷新过程中隐式地减少负翻转。该回填策略基于“辨识度差的特征应优先被刷新”的原则,通过轻量快速地估计底库旧特征的分类不确定性,判断特征的可辨识度。如下图所示,作者在Oxford数据集上进行了测试,无论在部署传统兼容训练的新模型(虚线)还是缓解退化兼容训练的新模型(实线)时,基于不确定性的回填策略(彩色)都可以间接减轻模型退化问题并实现精度更快更稳定的提升。

随机回填策略(灰色) & 基于不确定性的回填策略(彩色)

上文中仅展示部分实验结果,更多实验请翻阅原文。

3 腾讯PCG业务中的应用和实践

腾讯PCG-视频关系中台主要提供视频排重,视频侵权,视频语义关系的检测及数据服务。目前,向包括腾讯视频,腾讯小世界,微信视频号,微视等多个视频业务提供服务,涉及千亿量级的视频指纹特征,模型迭代带来的时间及机器成本十分高昂。基于兼容特征的热刷新方案加速了4+倍算法版本更新效率,同时节约了数百万元的机器成本,使得中台的算法服务可以更加灵活的面对变化多样的业务环境。

4 总结

该文对热刷新模型升级及其过程中会出现的模型退化问题进行了首次研究和深入剖析,这是实际应用中非常重要的一项任务,作者希望该论文能够引起公众对业界中高效模型升级瓶颈问题的关注。尽管引入的缓解退化的兼容性正则化可以在一定程度上减少负翻转,但要彻底消除模型退化的问题还有很长的路要走,作者呼吁更多的研究者加入这个方向进行进一步的研究。最后,如果有对腾讯ARC Lab或腾讯在线视频BU-AI技术中心的实习或全职研究员岗位感兴趣的同学,欢迎联系yixiaoge@tencent.com或evanxyxu@tencent.com。

[1] Yantao Shen, Yuanjun Xiong, Wei Xia, and Stefano Soatto. Towards backward-compatible representation learning. In CVPR, 2020.

公众号后台回复“数据集”获取30+深度学习数据集下载~

△点击卡片关注极市平台,获取 最新CV干货

极市干货
数据集资源汇总: 10个开源工业检测数据集汇总 21个深度学习开源数据集分类汇总
算法trick 目标检测比赛中的tricks集锦 从39个kaggle竞赛中总结出来的图像分割的Tips和Tricks
技术综述: 一文弄懂各种loss function 工业图像异常检测最新研究总结(2019-2020)


CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


觉得有用麻烦给个在看啦~   
登录查看更多
1

相关内容

ICLR 2022 放出了本届会议的论文接收结果:共有 54 篇 Oral(口头报告)论文和 176 篇 Spolight 论文,论文接收总数 1095 篇,最终投稿量 3391 篇,论文接收率 32.3%。
SIGIR2022 | MorsE:基于元知识迁移的归纳式知识图谱表示
专知会员服务
19+阅读 · 2022年4月9日
人工智能AI中台白皮书(2021年),45页pdf
专知会员服务
284+阅读 · 2021年9月18日
专知会员服务
14+阅读 · 2021年6月16日
专知会员服务
65+阅读 · 2021年3月21日
近期必读的5篇AI顶会CVPR 2020 GNN (图神经网络) 相关论文
专知会员服务
78+阅读 · 2020年3月3日
阿里巴巴达摩院发布「2020十大科技趋势」
专知会员服务
106+阅读 · 2020年1月2日
腾讯Angel Graph大规模图计算平台
专知
1+阅读 · 2022年4月11日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2022年4月18日
Sensitivity of sparse codes to image distortions
Arxiv
0+阅读 · 2022年4月15日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
1+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员