Deep detection models have largely demonstrated to be extremely powerful in controlled settings, but appear brittle and fail when applied off-the-shelf on unseen domains. All the adaptive approaches developed to amend this issue access a sizable amount of target samples at training time, a strategy not suitable when the target is unknown and its data are not available in advance. Consider for instance the task of monitoring image feeds from social media: as every image is uploaded by a different user it belongs to a different target domain that is impossible to foresee during training. Our work addresses this setting, presenting an object detection algorithm able to perform unsupervised adaptation across domains by using only one target sample, seen at test time. We introduce a multi-task architecture that one-shot adapts to any incoming sample by iteratively solving a self-supervised task on it. We further exploit meta-learning to simulate single-sample cross domain learning episodes and better align to the test condition. Moreover, a cross-task pseudo-labeling procedure allows to focus on the image foreground and enhances the adaptation process. A thorough benchmark analysis against the most recent cross-domain detection methods and a detailed ablation study show the advantage of our approach.


翻译:深度检测模型在受控环境中基本上表现得非常强大,但在对看不见领域应用现成时,这些模型似乎显得非常脆弱,而且失败。所有为修正这一问题而开发的适应性方法在培训时都接触了大量的目标样本,这种战略在目标未知且数据无法事先提供时并不合适。例如,考虑从社交媒体监测图像反馈的任务:由于每个图像都由不同用户上传,它属于培训期间无法预见的不同目标领域。我们的工作解决了这一设置,展示了一种能够通过在测试时看到的仅使用一个目标样本进行不受监督的跨区域适应的物体检测算法。我们引入了一个多任务结构,通过迭接地解决一个自我监督的任务,使一发式能够适应任何即将到来的样本。我们进一步利用元学习来模拟单模集跨域学习事件,更好地与测试条件相匹配。此外,跨任务假标签程序能够关注图像的表面,并加强适应进程。我们针对最近的跨界探测方法进行彻底的基准分析,并详细展示了我们跨界探测方法的优势。

0
下载
关闭预览

相关内容

最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年1月19日
Arxiv
19+阅读 · 2021年4月8日
Frustratingly Simple Few-Shot Object Detection
Arxiv
3+阅读 · 2020年3月16日
Arxiv
7+阅读 · 2018年12月5日
Arxiv
5+阅读 · 2018年10月23日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
4+阅读 · 2018年1月19日
Top
微信扫码咨询专知VIP会员