We propose a novel data augmentation approach, DistractFlow, for training optical flow estimation models by introducing realistic distractions to the input frames. Based on a mixing ratio, we combine one of the frames in the pair with a distractor image depicting a similar domain, which allows for inducing visual perturbations congruent with natural objects and scenes. We refer to such pairs as distracted pairs. Our intuition is that using semantically meaningful distractors enables the model to learn related variations and attain robustness against challenging deviations, compared to conventional augmentation schemes focusing only on low-level aspects and modifications. More specifically, in addition to the supervised loss computed between the estimated flow for the original pair and its ground-truth flow, we include a second supervised loss defined between the distracted pair's flow and the original pair's ground-truth flow, weighted with the same mixing ratio. Furthermore, when unlabeled data is available, we extend our augmentation approach to self-supervised settings through pseudo-labeling and cross-consistency regularization. Given an original pair and its distracted version, we enforce the estimated flow on the distracted pair to agree with the flow of the original pair. Our approach allows increasing the number of available training pairs significantly without requiring additional annotations. It is agnostic to the model architecture and can be applied to training any optical flow estimation models. Our extensive evaluations on multiple benchmarks, including Sintel, KITTI, and SlowFlow, show that DistractFlow improves existing models consistently, outperforming the latest state of the art.


翻译:我们提出了一种新的数据增强方法DistractFlow,通过向输入帧中引入逼真的干扰来训练光流估计模型。我们将成对的帧之一与描绘类似领域的干扰图像混合,这允许引入与自然物体和场景相符的视觉扰动。我们将这样的对称称为干扰对称。我们的直觉是,使用语义有意义的干扰器使模型学习相关变化并获得对挑战性偏差的鲁棒性,而与仅关注低级方面和修改的传统增强方案相比,这种增强方式更为有效。更具体地说,除了在原对称估计的流和其地面实况流之间计算监督损失之外,我们还包括另一个监督损失,并将其定义为在干扰对称的流和原组合的地面实况流之间,加权与相同的混合比例。此外,当有未标记的数据可用时,我们通过伪标记和交叉一致性规则将我们的增强方法扩展到自监督设置。给定原对称和其干扰版本,我们强制要求对干扰对称估计得到的流与原对称的流相符。我们的方法可以在不需要额外注释的情况下显着增加可用的训练对数。它对模型体系结构是不可知的,可以用于训练任何光流估计模型。我们对多个基准进行了广泛评估,包括Sintel、KITTI和SlowFlow,表明DistractFlow持续改进现有模型,超越了最新的最新技术水平。

0
下载
关闭预览

相关内容

GNN 新基准!Long Range Graph Benchmark
图与推荐
0+阅读 · 2022年10月18日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员