The properties of individual neurons are often analyzed in order to understand the biological and artificial neural networks in which they're embedded. Class selectivity-typically defined as how different a neuron's responses are across different classes of stimuli or data samples-is commonly used for this purpose. However, it remains an open question whether it is necessary and/or sufficient for deep neural networks (DNNs) to learn class selectivity in individual units. We investigated the causal impact of class selectivity on network function by directly regularizing for or against class selectivity. Using this regularizer to reduce class selectivity across units in convolutional neural networks increased test accuracy by over 2% for ResNet18 trained on Tiny ImageNet. For ResNet20 trained on CIFAR10 we could reduce class selectivity by a factor of 2.5 with no impact on test accuracy, and reduce it nearly to zero with only a small ($\sim$2%) drop in test accuracy. In contrast, regularizing to increase class selectivity significantly decreased test accuracy across all models and datasets. These results indicate that class selectivity in individual units is neither sufficient nor strictly necessary, and can even impair DNN performance. They also encourage caution when focusing on the properties of single units as representative of the mechanisms by which DNNs function.


翻译:个人神经元的特性经常被分析,以便了解嵌入其中的生物和人工神经网络。 分类选择性典型的定义是,神经元的反应在不同类别的刺激或数据样本中如何不同,通常用于此目的。 但是,对于深神经网络(DNN)来说是否必要和/或足够,以学习单个单元中的等级选择性。 我们调查了等级选择性对网络功能的因果影响,直接规范或反对等级选择性。 使用这种常规化来减少超导神经网络中各个单元的等级选择性,使在Tiny图像网络上培训的ResNet18测试精度提高了2%以上。 对于在CIFAR10上培训的ResNet20, 我们可以将等级选择性降低2.5倍,对测试精度没有影响,并且将测试精度降低到近零,而测试精度只有小的($sim 2 % ) 下降。 相反,我们通过对所有模型和数据集进行定期化提高等级选择性显著降低测试精度。 这些结果表明,单个单元中的等级选择性既不足够,也绝对必要,甚至可以损害DNNN的功能。 当单一的特性时,它们会鼓励谨慎地注重D的特性时,作为代表。

0
下载
关闭预览

相关内容

【ICML2020】多视角对比图表示学习,Contrastive Multi-View GRL
专知会员服务
77+阅读 · 2020年6月11日
因果图,Causal Graphs,52页ppt
专知会员服务
238+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
144+阅读 · 2019年10月12日
已删除
将门创投
7+阅读 · 2018年10月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
VIP会员
相关资讯
已删除
将门创投
7+阅读 · 2018年10月12日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员