Deep neural networks set the state-of-the-art across many tasks in computer vision, but their generalization ability to image distortions is surprisingly fragile. In contrast, the mammalian visual system is robust to a wide range of perturbations. Recent work suggests that this generalization ability can be explained by useful inductive biases encoded in the representations of visual stimuli throughout the visual cortex. Here, we successfully leveraged these inductive biases with a multi-task learning approach: we jointly trained a deep network to perform image classification and to predict neural activity in macaque primary visual cortex (V1). We measured the out-of-distribution generalization abilities of our network by testing its robustness to image distortions. We found that co-training on monkey V1 data leads to increased robustness despite the absence of those distortions during training. Additionally, we showed that our network's robustness is very close to that of an Oracle network where parts of the architecture are directly trained on noisy images. Our results also demonstrated that the network's representations become more brain-like as their robustness improves. Using a novel constrained reconstruction analysis, we investigated what makes our brain-regularized network more robust. We found that our co-trained network is more sensitive to content than noise when compared to a Baseline network that we trained for image classification alone. Using DeepGaze-predicted saliency maps for ImageNet images, we found that our monkey co-trained network tends to be more sensitive to salient regions in a scene, reminiscent of existing theories on the role of V1 in the detection of object borders and bottom-up saliency. Overall, our work expands the promising research avenue of transferring inductive biases from the brain, and provides a novel analysis of the effects of our transfer.


翻译:深心神经网络在计算机视觉的许多任务中设置了最先进的智能,但是它们一般化的图像扭曲能力却令人惊讶地脆弱。相反,哺乳动物视觉系统是强健的,能够引起广泛的扰动。最近的工作表明,这种一般化能力可以用在视觉皮层的视觉刺激中,在视觉皮层的表达中,用有用的感应偏差编码来解释。在这里,我们成功地利用了这些感应偏差,采用了多任务学习方法:我们共同训练了一个深层次的网络来进行图像分类,并预测在显性初级视觉皮层(V1)中的神经活动。我们测量了我们网络在分布上的超出分布性的能力,测试了它是否具有扭曲性。我们发现猴子V1数据的共同训练,尽管在训练过程中没有出现这些扭曲,但我们的网络的坚固性非常强,我们从结构的某些部分直接通过噪音图像来进行直接训练。我们的结果还表明,这个网络的表象在使用深度的深度目标上变得更加像,我们更精准的大脑,我们更精准的深度的图像在使用深度的深度的深度的网络中,我们比常规的网络的网络分析更精细的网络,我们发现我们更精细的网络在进行更精确的深度的深度的网络中发现,我们更精细的深度的深度的深度的深度的网络,我们发现我们的网络的网络的网络在进行更精确的深度的深度的深度的深度的深度的网络,我们发现,我们发现,我们更精确的深度的网络的网络的网络在进行比在进行更精确的分析。

0
下载
关闭预览

相关内容

专知会员服务
31+阅读 · 2021年6月12日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
【斯坦福大学】Gradient Surgery for Multi-Task Learning
专知会员服务
46+阅读 · 2020年1月23日
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Arxiv
0+阅读 · 2022年1月26日
Arxiv
9+阅读 · 2021年4月8日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
9+阅读 · 2021年2月25日
3D Deep Learning on Medical Images: A Review
Arxiv
12+阅读 · 2020年4月1日
VIP会员
相关VIP内容
相关资讯
Multi-Task Learning的几篇综述文章
深度学习自然语言处理
15+阅读 · 2020年6月15日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【NIPS2018】接收论文列表
专知
5+阅读 · 2018年9月10日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
相关论文
Arxiv
0+阅读 · 2022年1月26日
Arxiv
9+阅读 · 2021年4月8日
Arxiv
31+阅读 · 2021年3月29日
Arxiv
9+阅读 · 2021年2月25日
3D Deep Learning on Medical Images: A Review
Arxiv
12+阅读 · 2020年4月1日
Top
微信扫码咨询专知VIP会员