The input data from a neural network may be reconstructed using knowledge of the gradients of that network, as demonstrated by \cite{zhu2019deep}. By imposing prior information and utilising a uniform initialization we demonstrate faster and more accurate image reconstruction. Exploring the theoretical limits of reconstruction, we show that a single input may be reconstructed, regardless of network depth using a fully-connected neural network with one hidden node. Then we generalize this result to a gradient averaged over mini-batches of size $B$. In this case, the full mini-batch can be reconstructed if the number of hidden units exceeds $B$, with an orthogonality regularizer to improve the precision. For a Convolutional Neural Network, the required number of filters in the first convolutional layer is decided by multiple factors (e.g., padding, kernel and stride size). Therefore, we require the number of filters, $h\geq (\frac{d}{d^{'}})^2C$, where $d$ is input width, $d^{'}$ is output width after convolution kernel, and $C$ is channel number of input. Finally, we validate our theoretical analysis and improvements using bio-medical (fMRI) and benchmark data (MNIST, Kuzushiji-MNIST, CIFAR100, ImageNet and face images).


翻译:神经网络的输入数据可以通过对网络梯度的了解来重建, 如\ cite{zhu2019deep} 所显示的 。 通过强制提供先前的信息和使用统一的初始化, 我们展示了更快和更准确的图像重建。 探索重建的理论限度, 我们显示, 一个输入可以重建, 不论网络深度如何, 使用一个完全连接的神经网络和一个隐藏节点。 然后我们将这一结果推广到一个平均的跨度, 大小为$B$的微型桶。 在这种情况下, 如果隐藏的单位数量超过$B$, 并且使用一个正方位正态常规化的常规化工具来提高精确度, 就可以重建整个微型批次 。 对于革命神经网络来说, 第一个革命层中所需的过滤器数量是由多种因素决定的( 例如, 挂接, 内嵌和缩放大小 ) 。 因此, 我们需要100 过滤器、 $h\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
7+阅读 · 2021年4月30日
Arxiv
5+阅读 · 2020年3月17日
Accelerated Methods for Deep Reinforcement Learning
Arxiv
6+阅读 · 2019年1月10日
Arxiv
5+阅读 · 2018年1月17日
Arxiv
5+阅读 · 2017年12月14日
VIP会员
相关VIP内容
相关资讯
Federated Learning: 架构
AINLP
4+阅读 · 2020年9月20日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员