Recently, the dominant DETR-based approaches apply central-concept spatial prior to accelerate Transformer detector convergency. These methods gradually refine the reference points to the center of target objects and imbue object queries with the updated central reference information for spatially conditional attention. However, centralizing reference points may severely deteriorate queries' saliency and confuse detectors due to the indiscriminative spatial prior. To bridge the gap between the reference points of salient queries and Transformer detectors, we propose SAlient Point-based DETR (SAP-DETR) by treating object detection as a transformation from salient points to instance objects. In SAP-DETR, we explicitly initialize a query-specific reference point for each object query, gradually aggregate them into an instance object, and then predict the distance from each side of the bounding box to these points. By rapidly attending to query-specific reference region and other conditional extreme regions from the image features, SAP-DETR can effectively bridge the gap between the salient point and the query-based Transformer detector with a significant convergency speed. Our extensive experiments have demonstrated that SAP-DETR achieves 1.4 times convergency speed with competitive performance. Under the standard training scheme, SAP-DETR stably promotes the SOTA approaches by 1.0 AP. Based on ResNet-DC-101, SAP-DETR achieves 46.9 AP.


翻译:最近,以DETR为基础的主要方法在加速变异器探测器之前应用中央概念空间,这些方法在加速变异器探测器之前逐步完善目标对象中心的参照点,并用最新的中央参考信息插入对象查询,以便进行空间有条件的注意。然而,集中参照点可能会严重地恶化查询的显著性和混淆探测器,因为先前的空间不相容。为缩小突出查询和变异器探测器参考点之间的差距,我们建议以SAP-DETR(SAP-DETR)为基础,将对象探测作为从突出点转换为实例对象的转换。在SAP-DETR(S-DETR)中,我们明确为每个对象查询启动一个具体查询点的参照点,逐渐将它们合并到一个实例对象,然后预测从捆绑框的每个侧面到这些点的距离。SAP-DETR(S-DETR-SAP-DEDR-SAP-RA-SAPTR-SAP-SAPTR-SAP-SAR-SAR-SAPDR-SAP-SAP-SAR-SAP-SAR-SAPTR-SAPD-SAP-SAR ASlation SAL-SAPTR-SAPTR-SAPTR-SAR-SAR-SAPTR-SAR-SAR-SB-SAR-SAR-SB-SAP-SAR-SAR-SB-SB-SB-SB-SB-SB-SB-SB-SAR-SB-SAR-SB-SB-SAR-SDR-SDR-SL-SDR-SDR-SB-SB-SD-SD-SDR-SD-SD-SD-SD-SD-SD-SB-SD-SD-SD-SD-SB-SB-SB-SDR-SBASBASBAR ASBADA-SBADADR-SB-SB-SB-SB-S-S-S-S-S-S-S-S-S-S-SDADA-S-S-S-SA-SB-S-S-S-SAR

0
下载
关闭预览

相关内容

Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
163+阅读 · 2019年10月12日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
41+阅读 · 2019年10月9日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
11+阅读 · 2022年3月16日
Arxiv
11+阅读 · 2019年4月15日
Arxiv
19+阅读 · 2018年5月17日
VIP会员
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
VCIP 2022 Call for Special Session Proposals
CCF多媒体专委会
1+阅读 · 2022年4月1日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员