Understanding the behavior and vulnerability of pre-trained deep neural networks (DNNs) can help to improve them. Analysis can be performed via reversing the network's flow to generate inputs from internal representations. Most existing work relies on priors or data-intensive optimization to invert a model, yet struggles to scale to deep architectures and complex datasets. This paper presents a zero-shot direct model inversion framework that recovers the input to the trained model given only the internal representation. The crux of our method is to inverse the DNN in a divide-and-conquer manner while re-syncing the inverted layers via cycle-consistency guidance with the help of synthesized data. As a result, we obtain a single feed-forward model capable of inversion with a single forward pass without seeing any real data of the original task. With the proposed approach, we scale zero-shot direct inversion to deep architectures and complex datasets. We empirically show that modern classification models on ImageNet can, surprisingly, be inverted, allowing an approximate recovery of the original 224x224px images from a representation after more than 20 layers. Moreover, inversion of generators in GANs unveils latent code of a given synthesized face image at 128x128px, which can even, in turn, improve defective synthesized images from GANs.
翻译:了解预先训练的深神经网络的行为和脆弱性可以帮助改善这些网络。 分析可以通过扭转网络流来进行, 以便从内部陈述中产生投入。 多数现有工作依赖于前期或数据密集优化, 以推翻模型, 但要努力向深层架构和复杂的数据集扩展规模。 本文提出了一个零发直接的反向模型框架, 将输入恢复到只给内部代表的经过训练的模型中。 我们的方法的要点是以分化和反化的方式反向 DNNN, 同时通过循环一致性指导与合成数据的帮助重新合成反向反向层。 结果, 我们获得一个单一的向前传输模型, 能够在没有看到原始任务的任何真实数据的情况下进行一次反向转换。 我们通过拟议的方法, 将零发直接转换到深度架构和复杂数据集。 我们的经验显示, 令人惊讶的是, 在图像网上现代的分类模式中, 通过循环一致性指导, 通过循环一致性指导, 将原224px图像重新合成。 28x 图像在GAN 的图像上, 在GAN 的版本中, 在20 后, 的版本中, 在GAN 的版本中, 的版本中, 的版本中, 能够在G- 25的版本中, 在G- 的版本中, 在G-AN 的版本的版本中, 的版本中, 后, 在G- 的版本中, 之后的版本中, 在 G- x 的版本中, 后, 后, 后,在 G- x 的版本的版本中, 的版本中,在 G-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x-x