Despite the enormous success of neural networks, they are still hard to interpret and often overfit when applied to low-sample-size (LSS) datasets. To tackle these obstacles, we propose a framework for training locally sparse neural networks where the local sparsity is learned via a sample-specific gating mechanism that identifies the subset of most relevant features for each measurement. The sample-specific sparsity is predicted via a \textit{gating} network, which is trained in tandem with the \textit{prediction} network. By learning these subsets and weights of a prediction model, we obtain an interpretable neural network that can handle LSS data and can remove nuisance variables, which are irrelevant for the supervised learning task. Using both synthetic and real-world datasets, we demonstrate that our method outperforms state-of-the-art models when predicting the target function with far fewer features per instance.


翻译:尽管神经网络取得了巨大成功,但是在应用到低缩缩(LSS)数据集时,它们仍然很难解释,而且往往过于适合。为了克服这些障碍,我们提议了一个框架,用于培训本地稀疏神经网络,通过一个抽样专用的格子机制,确定每种测量最相关特征的子集,从而学习本地宽度。通过一个与 kextit{ging} 网络同时培训的\ textit{pregy} 网络,可以预测样本特定的宽度。通过学习预测模型的这些子集和重量,我们获得了一个可解释的神经网络,可以处理LSS数据,并可以消除与监督的学习任务无关的棘手变量。我们利用合成和真实世界数据集,证明我们的方法在预测目标功能时,在以非常少的特点预测时,超过了最新模型。

0
下载
关闭预览

相关内容

Networking:IFIP International Conferences on Networking。 Explanation:国际网络会议。 Publisher:IFIP。 SIT: http://dblp.uni-trier.de/db/conf/networking/index.html
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Arxiv
4+阅读 · 2018年7月4日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
4+阅读 · 2017年11月14日
Arxiv
4+阅读 · 2017年11月13日
VIP会员
相关论文
Arxiv
4+阅读 · 2018年7月4日
Interpretable Active Learning
Arxiv
3+阅读 · 2018年6月24日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
4+阅读 · 2017年11月14日
Arxiv
4+阅读 · 2017年11月13日
Top
微信扫码咨询专知VIP会员