There is an emerging sense that the vulnerability of Image Convolutional Neural Networks (CNN), i.e., sensitivity to image corruptions, perturbations, and adversarial attacks, is connected with Texture Bias. This relative lack of Shape Bias is also responsible for poor performance in Domain Generalization (DG). The inclusion of a role of shape alleviates these vulnerabilities and some approaches have achieved this by training on negative images, images endowed with edge maps, or images with conflicting shape and texture information. This paper advocates an explicit and complete representation of shape using a classical computer vision approach, namely, representing the shape content of an image with the shock graph of its contour map. The resulting graph and its descriptor is a complete representation of contour content and is classified using recent Graph Neural Network (GNN) methods. The experimental results on three domain shift datasets, Colored MNIST, PACS, and VLCS demonstrate that even without using appearance the shape-based approach exceeds classical Image CNN based methods in domain generalization.


翻译:一种正在出现的感觉是,图像革命神经网络(CNN)的脆弱性,即对图像腐败、扰动和对抗性攻击的敏感度,与Texture Bias有关。这种相对缺乏形状Bias的相对缺乏也是造成DG在DG中表现不佳的原因。纳入形状的作用减轻了这些脆弱性,一些方法通过对负面图像、带有边缘图的图像或形状和纹理信息相冲突的图像进行培训而达到这一点。本文主张使用经典计算机视觉方法明确和完整地描述形状,即代表图像的形状内容及其轮廓图的冲击图。由此产生的图表及其描述词完全代表了轮廓内容,并使用最近的图形神经网络(GNN)方法进行了分类。关于三个域转移数据集、有色的MNIST、PACS和VLCS的实验结果表明,即使不使用外观,基于形状的方法也超过了基于域通用的经典图像CNN方法。

0
下载
关闭预览

相关内容

【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
156+阅读 · 2020年5月26日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
3+阅读 · 2018年2月7日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
图嵌入(Graph embedding)综述
人工智能前沿讲习班
449+阅读 · 2019年4月30日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员