论文题目
它是这样的:用于可解释图像识别的深度学习,This Looks Like That: Deep Learning for Interpretable Image Recognition
论文摘要
当我们面对具有挑战性的图像分类任务时,我们常常通过剖析图像并指出一个或另一个类的典型方面来解释我们的推理。越来越多的证据可以帮助我们做出最后的决定。在这项工作中,我们介绍了一种深度网络体系结构——原型零件网络(ProtoPNet),其原因与此类似:网络通过寻找原型零件来解剖图像,并结合原型中的证据进行最终分类。因此,该模型的推理方式与鸟类学家、医生和其他人向人们解释如何解决具有挑战性的图像分类任务的方式在质量上相似。该网络仅使用图像级标签进行训练,而不对图像的部分进行任何注释。我们在CUB-200-2011数据集和Stanford Cars数据集上演示了我们的方法。我们的实验表明,ProtoPNet可以达到与其类似的不可解释模型相当的精度,并且当几个ProtoPNet组合成一个更大的网络时,它可以达到与一些性能最好的深层模型相当的精度。此外,ProtoPNet提供了其他可解释的深层模型所不具备的可解释性。
论文模型
论文亮点
本文提出了一种新的可解释性深度学习的思想,它基本上是由图像本身的一些原型部分,然后利用这些原型进行分类,从而使分类过程具有可解释性。在NIPS 2019的前3%接受论文中。 论文作者
Chaofan Chen, Oscar Li, Chaofan Tao, Alina Jade Barnett, Jonathan Su, Cynthia Rudin,作者们来自于杜克大学